Dissertations / Theses on the topic 'Normalisation'

To see the other types of publications on this topic, follow the link: Normalisation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Normalisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Burden, Adrian M. "Normalisation of electromyograms." Thesis, University of Brighton, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.247823.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Chapman, James Maitland. "Type checking and normalisation." Thesis, University of Nottingham, 2009. http://eprints.nottingham.ac.uk/10824/.

Full text
Abstract:
This thesis is about Martin-Löf's intuitionistic theory of types (type theory). Type theory is at the same time a formal system for mathematical proof and a dependently typed programming language. Dependent types are types which depend on data and therefore to type check dependently typed programming we need to perform computation(normalisation) in types. Implementations of type theory (usually some kind of automatic theorem prover or interpreter) have at their heart a type checker. Implementations of type checkers for type theory have at their heart a normaliser. In this thesis I consider type checking as it might form the basis of an implementation of type theory in the functional language Haskell and then normalisation in the more rigorous setting of the dependently typed languages Epigram and Agda. I investigate a method of proving normalisation called Big-Step Normalisation (BSN). I apply BSN to a number of calculi of increasing sophistication and provide machine checked proofs of meta theoretic properties.
APA, Harvard, Vancouver, ISO, and other styles
3

Kammoun, Samia. "Normalisation, coopération et incitation." Toulouse 1, 1997. http://www.theses.fr/1997TOU10018.

Full text
Abstract:
Dans cette thèse nous analysons les stratégies de firmes concurrentes en matière de normalisation d'une part et les interactions entre des organismes privés ou publics et des agents privés qui décident de normaliser leur production d'autre part. Dans une première partie, nous nous intéressons au processus de création des normes. Après avoir établi dans le chapitre 1 une classification des normes selon leur fonction économique, nous abordons dans le chapitre 2 le problème du rôle des normes dans le commerce international. Nous y donnons une description des institutions et des accords régionaux et internationaux, dont le rôle est d'empêcher que la norme soit utilisée comme barrière à l'entrée des produits importés. Le chapitre 3 présente les défaillances du marché quant il s'agit de fournir aux entreprises les incitations optimales en matière de normalisation de leur production. Nous déterminons d'une part les stratégies des firmes lors du processus de normalisation et d'autre part comment le décideur public doit intervenir aux différentes étapes de ce processus. La divergence entre les intérêts privés des producteurs et l'intérêt social nous conduit à analyser le contrôle collectif des activités de normalisation dans la seconde partie de la thèse. Le chapitre 4 propose un contrôle au niveau professionnel, lorsque les stratégies de normalisation caractérisées par des effets de débordement du côté de la demande, sont décidées de manière coopérative ou non. Dans le chapitre 5, nous proposons un contrôle des activités de normalisation qui s'opère à un niveau plus agrégé incluant les intérêts des consommateurs. Les propriétés d'un mécanisme de régulation des activités de standardisation sont établies et analysées
In this thesis, we analyse standardization strategies of competing firms and the interactions between public agency or private organization with private agents that decide to standardize their products. In the first part, we are interested with the process by which standards are established. In the first chapter, a classification of norms based on their economic function and on their impact on market structure is made. In the second chapter, we focus on the role of standards in international trade. We discuss the legal and institutional treatment of norms as a technical barrier to trade. In chapter 3, we show market failures in standardization process. Then we describe firm's strategies and objectives when they participate in the creation of norms. Since private and social benefits are not perfectly correlated, we propose in the second part of this work a collective regulation of standardization activities, either by a public agency or by private organizations inducing some cooperation between firms. In chapter 4, we study professional control when standardization strategies, characterized by spillover effect on the demand side, are decided cooperatively or not. In chapter 5, we analyse public regulation of standardization activities, including consumer's interests. The characteristics of the optimal incentive scheme under asymmetric information between the regulator and the firms are determined
APA, Harvard, Vancouver, ISO, and other styles
4

Davidyan, Artak. "Normalisation et activités financières." Paris 1, 2010. http://www.theses.fr/2010PA010283.

Full text
Abstract:
La normalisation désigne ici les spécifications volontaires intervenant dans les activités financières. La thèse aborde les questions liées aux processus de l'élaboration des normes, leurs éléments constitutifs et leur portée. Elle étudie la manière dont les États sont représentés dans les instances de normalisation nationales, européennes et internationales, et analyse ensuite le cadre théorique et pratique qui prolonge l'hypothèse de l'affirmation des formes hybrides d'autorité non étatique, dotées d'une mission d'intérêt général, à l'échelle nationale, européenne et mondiale. La thèse propose également une réflexion autour de l'usage croissant de la normalisation comme gage de sécurité juridique dans les pratiques contractuelles et dans la régulation juridique des activités financières. Pour appréhender ce phénomène, il faut d'une part se placer dans le contexte de la prolifération des sources de droit, notamment des sources privées qui envahissent les activités financières, et d'autre part tenir compte du fait qu'à la conception unifiée et hiérarchisée du droit se substitue une conception où la contrainte est un élément non plus constitutif, mais fonctionnel de l'ordre juridique. L'attention se porte donc sur cette spécificité principale des normes sur le plan conceptuel: elles n'ont ni nécessairement ni immédiatement un caractère juridique et, par conséquent, elles ne sont pas contraignantes. Considérant la norme comme une composante du droit "mou", "doux" ou "souple" (soft law), la thèse analyse le fait que la norme se particularise aussi, du point de vue de la pratique, par les différents rôles qu'elle remplit par rapport au droit dur, notamment via sa "juridicisation" par des actes réglementaires ou judiciaires. Cette interaction entre la normalisation et la réglementation est due au phénomène de la "technicisation" du droit, au sens large du terme, dans la mesure où la norme s'avère être un auxiliaire de la règle de droit.
APA, Harvard, Vancouver, ISO, and other styles
5

Schenk, Eric. "Externalistes de reseau et compatibilite la concurrence entre standards." Université Louis Pasteur (Strasbourg) (1971-2008), 1999. http://www.theses.fr/1999STR1EC03.

Full text
Abstract:
L'utilite associee a un standard technique est generalement liee a son degre de diffusion dans l'economie. En particulier, les externalites de reseau traduisent la correlation positive entre l'utilite d'un bien et le nombre d'utilisateurs de biens compatibles. Cette these analyse les consequences et les determinants des relations de compatibilite dans un contexte de concurrence entre standards techniques. Dans la premiere partie de la these, nous analysons l'impact economique des extemalites de reseau selon les relations de compatibilite qui prevalent. Dans le premier chapitre, nous proposons une discussion des concepts de reseau et de compatibilite. Le deuxieme chapitre constitue une revue de la litterature consacree a la concurrence entre standards. Dans le troisieme chapitre, nous utilisons la methode des urnes generalisees de polya afin de representer l'evolution des parts de marche de deux standards selon leur compatibilite et l'heterogeneite des adopteurs. La seconde partie de la these est consacree a une analyse des incitations strategiques a la compatibilite. Dans le quatrieme chapitre, nous examinons les decisions de compatibilite selon leur impact en termes de concurrence. Dans le cadre d'un modele logit, nous montrons que des firmes offrant des biens differencies tendent a utiliser la compatibilite afin d'attenuer la concurrence en prix qui s'exerce. Dans le cinquieme chapitre, nous analysons les decisions de standardisation lorsque la compatibilite accroit la similitude entre les produits. Cet effet est modelise par le moyen d'un modele logit imbrique. Du point de vue des firmes, les choix de compatibilite resultent d'un arbitrage entre les externalites de reseau et l'intensite de la concurrence. La standardisation est apprehendee selon la concavite de la fonction qui caracterise les externalites de reseau
Technology competition often exhibits positive network externalities, according to which the utility of a good increases with the number of users of compatible ones. This thesis aims at analysing the consequences and determinants of compatibility relationships in a context of competing technologies. In the first part, we study the economic impact of network externalities, given the compatibility which prevails. The first chapter discusses the concepts of network and compatibility. The second one offers a survey of the literature on technology adoption. In the third chapter, we propose a model based on generalised polya urn schemes. The evolution of market shares of two competing standards is modelled as the outcome of their compatibility and the heterogeneity of consumers. The second part of the thesis analyses the strategic use of compatibility by firms. In the fourth chapter, we consider the interplay between compatibility decisions and the nature of interfirm competition. Within a logit model of oligopoly, we show that firms tend to use compatibility in order to reduce the intensity of price competition. The fifth chapter deals with strategic standardisation decisions when compatibility increases product substitutability. By means of a nested logit approach, we show that compatibility decisions lead to a trade-off between the importance of network externalities and the intensity of competition. We analyse this trade, off according to the concavity of the network externality function
APA, Harvard, Vancouver, ISO, and other styles
6

Cousineau, Denis. "Modèles et normalisation des preuves." Phd thesis, Ecole Polytechnique X, 2009. http://tel.archives-ouvertes.fr/tel-00433165.

Full text
Abstract:
La notion de théorie s'est séparée de la notion de logique à la fin des années 1920, lorsque Hilbert et Ackermann ont distingué les règles de déduction, indépendantes de l'ob jet du discours, des axiomes qui lui sont spécifiques. S'est alors posée la question de caractériser les théories, définies donc comme des ensembles d'axiomes, que l'on peut utiliser pour formaliser une partie du raisonnement mathématique. Un premier critère est la cohérence de cette théorie : le fait qu'on ne puisse pas démontrer toutes les propositions de cette théorie. Cependant il est progressivement apparu que la cohérence n'était pas une propriété suffisante. Le fait que les démonstrations constructives vérifient les propriétés de la dijonction ou du témoin, ou la complétude de certaines méthodes de démonstration automatique ne découlent pas de la seule cohérence d'une théorie. Mais toutes trois sont par contre conséquentes d'une même propriété : la normalisation des démonstrations. En 1930, le théorème de complétude de Gödel montra que le critére de cohérence pouvait être vu sous différents angles. En plus de la définition précédente interne à la théorie de la démonstration, on peut également définir de manière algébrique la cohérence d'une théorie comme le fait qu'elle possède un modèle. L'équivalence entre ces deux définitions constitue un outil fondamental, qui a permis notamment la démonstration de la cohérence de nombreuses théories : la théorie des ensembles avec la négation de l'axiome du choix par Fraenkel et Mostovski, la théorie des ensembles avec l'axiome du choix et l'hypothèse du continue par Gödel, la théorie des ensembles avec la négation de l'hypothèse du continu par Cohen, . . . A l'inverse, la normalisation des démonstrations semblait ne pouvoir se définir que de manière interne à la théorie de la démonstration. Certains critères inspirés de la théorie des modèles étaient certes parfois utilisés pour démontrer la propriété de normalisation des démonstrations de certaines théories, mais la nécéssité de ces critéres n'avait pas été établie. Nous proposons dans cette thèse un critère algébrique à la fois nécessaire et suffisant pour la normalisation des démonstrations. Nous montrons ainsi que la propriété de normalisation des démonstrations peut également se définir comme un critère algébrique, à l'instar de la propriété de cohérence. Nous avons pour cela défini une nouvelle notion d'algèbre de valeurs de vérités (TVA) appelée algèbres de vérité dépendant du langage (LDTVA). La notion de TVA permet d'exhiber l'algèbre de valeurs de vérité des candidats de réductibilité définis par Girard en 1970. L'existence d'un modèle à valeurs dans cette algèbre définit un critère algébrique suffisant pour la propriété de normalisation des démonstrations. Puis nous avons défini un raffinement de la notion de candidats de réductibilité comme une de ces LDTVAs et avons montré que l'existence d'un modèle à valeurs dans cette algèbre définit un critère algébrique toujours suffisant mais également nécessaire pour la propriété de normalisation des démonstrations. Ce critère est défini pour les cadres logiques de la déduction minimale et du λΠ-calcul modulo. Et nous exhibons finalement la puissance du λΠ-calcul modulo en montrant que tous les systèmes de types purs fonctionnels peuvent être simulés dans ce cadre logique.
APA, Harvard, Vancouver, ISO, and other styles
7

Polonovski, Emmanuel. "Subsitutions explicites, logique et normalisation." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00007962.

Full text
Abstract:
Les substitutions explicites ont été introduites comme un raffinement du lambda-calcul, celui-ci étant le
formalisme utilisé pour étudier la sémantique des langages de programmation. L'objet de cette thèse
est l'étude de leurs propriétés de normalisation forte et de préservation de la normalisation forte. Ce
manuscrit rend compte de plusieurs travaux autour de ces propriétés de normalisation, regroupés en
trois volets.

Le premier d'entre eux formalise une technique générale de preuve de normalisation forte utilisant
la préservation de la normalisation forte. On applique cette technique à un spectre assez large de calculs
avec substitutions explicites afin de mesurer les limites de son utilisation. Grâce à cette technique, on
prouve un résultat nouveau : la normalisation forte du lambda-upsilon-calcul simplement typé.

Le deuxième travail est l'étude de la normalisation d'un calcul symétrique non-déterministe issu de
la logique classique formulée dans le calcul des séquents, auquel est ajouté des substitutions explicites.
La conjonction des problèmes posés par les calculs symétriques et ceux posés par les substitutions
explicites semble vouer à l'échec l'utilisation de preuves par réductibilité. On utilise alors la technique
formalisée dans le premier travail, ce qui nous demande de prouver tout d'abord la préservation de la
normalisation forte. A cette fin, on utilise un fragment de la théorie de la perpétuité dans les systèmes
de réécriture.

La définition d'une nouvelle version du lambda-ws-calcul avec nom, le lambda-wsn-calcul, constitue le troisième
volet de la thèse. Pour prouver sa normalisation forte par traduction et simulation dans les réseaux
de preuve, on enrichit l'élimination des coupures de ceux-ci avec une nouvelle règle, ce qui nous oblige
à prouver que cette nouvelle notion de réduction est fortement normalisante.
APA, Harvard, Vancouver, ISO, and other styles
8

Xu, Ruixia. "New results in colour normalisation." Thesis, University of East Anglia, 2003. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.399806.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Neveu, David. "La normalisation des dispositifs médicaux." Bordeaux 2, 1997. http://www.theses.fr/1997BOR2P105.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Wade, Aïssa. "Normalisation de structures de Poisson." Montpellier 2, 1996. http://www.theses.fr/1996MON20117.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Jubé, Samuel. "Droit social et normalisation comptable." Nantes, 2008. http://www.theses.fr/2008NANT4030.

Full text
Abstract:
Les références comptables pénètrent aujourd'hui le droit social : information comptable du comité d'entreprise, assistance d'un expert-comptable, sauvegarde de la compétitivité, participation et intéressement des salariés, provisionnement et révision des engagements de prévoyance et de retraites, bilan social, bilan de compétences, équilibre financier de la sécurité sociale, etc. Cette omniprésence des références comptables n'est pas sans lien avec l'essor de la normalisation comptable qui prend place, en France, au milieu du XXe siècle et se structure, au niveau mondial, à partir des années 1970. Quel sens faut-il lui donner ? La décision prise le 19 juillet 2002 par l'Union européenne d'adopter les normes comptables internationales IAS IFRS présente-t-elle des enjeux pour le droit social ? Cette recherche revient sur la genèse de la normalisation comptable et vise, dans une première partie, à éclairer la nature et la portée de ses effets sur le droit social. Dans une seconde partie, c'est l'influence du droit social sur la normalisation comptable qui est analysée. Il s'agit de comprendre si cette branche du droit est correctement prise en compte par les normes comptables dans l'élaboration de l'image fidèle de l'entreprise. D'importantes incohérences ont été mises en évidence, qui nuisent à la fois à l'effectivité du droit social et à la fidélité de l'image comptable. Certaines pistes de solution ont alors été proposées
The European Union decided on July 19th 2002 to enforce the International Accounting Standards set by the International Accounting Standards Board (IASB). Workers and Trade Unions became concemed with accounting standardization matters. Some said the adoptior of fair value measurement could impact the management of the firm and shorten its view. Others emphasized on the fact that EU listed companies would now have to recognize a liability for the present value of their defined benefit obligations and wondered wether there could be an impact on their social protection. This research's purpose was to investigate the impacts of accounting standards within the labour law. To do so, we came back on the accounting standardization phenomenon in itself and its effects on accounting social functions. We analysed the way it impacted French labour law through the institution of work councils, profit-sharing, dismissal, and the adoption of such tools as the bilan social (social balance sheet) and the bilan de compétences (skills balance sheet). We also tried to find out if accounting standards truly provided a true and fair view of both the nature and value of defined benefit obligations and of the employees' value for the firm. As we came to the conclusion that it did not, we proposed some solutions to reconcile labour law and accounting standards
APA, Harvard, Vancouver, ISO, and other styles
12

Polonovski, Emmanuel. "Substitutions explicites, logiques et normalisation." Paris 7, 2004. https://tel.archives-ouvertes.fr/tel-00007962.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Baranes, Marion. "Normalisation orthographique de corpus bruités." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC304.

Full text
Abstract:
Les messages publiés par les internautes comportent un intérêt stratégique pour les entreprises. Néanmoins, peu d'outils ont été conçus pour faciliter l'analyse de ces messages souvent bruités. Cette thèse, réalisée au sein de l'entreprise viavoo, veut améliorer les résultats d'un outil d'extraction d'information qui fait abstraction de la variabilité flexionnelle. Nous avons ainsi développé une chaîne de traitements pour la normalisation orthographique de textes bruités. Notre approche consiste tout d'abord à déterminer automatiquement, parmi les tokens du corpus traité qui sont inconnus d'un lexique, ceux qui résultent d'altérations et qu'il conviendrait de normaliser, par opposition aux autres (néologismes, emprunts. . . ). Des candidats de normalisation sont alors proposés pour ces tokens à l'aide de règles pondérées obtenues par des techniques d'apprentissage par analogie. Nous identifions ensuite des tokens connus du lexique qui résultent néanmoins d'une altération (fautes grammaticales), et proposons des candidats de normalisation pour ces tokens. Enfin, des modèles de langue permettent de prendre en compte le contexte dans lequel apparaissent les différents types d'altérations pour lesquels des candidats de normalisation ont été proposés afin de choisir les plus probables. Différentes expériences et évaluations sont réalisées sur le français à chaque étape et sur la chaîne complète. Une attention particulière a été portée au caractère faiblement dépendant de la langue des modules développés, ce qui permet d'envisager son adaptation à d'autres langues européennes
The information contained in messages posted on the Internet (forums, social networks, review sites. . . ) is of strategic importance for many companies. However, few tools have been designed for analysing such messages, the spelling, typography and syntax of which are often noisy. This industrial PhD thesis has been carried out within the viavoo company with the aim of improving the results of a lemma-based information retrieval Cool. We have developed a processing pipeline for the normalisation of noisy texts. Its aim is to ensure that each word is assigned the standard spelling corresponding to one of its lemma's inflected forms. First, among all tokens of the corpus that are unknown to a reference lexicon, we automatically determine which ones result from alterations — and therefore should be normalised — as opposed to those that do not (neologisms, loanwords. . . ). Normalisation candidates are then generated for these tokens using weighted rules obtained by analogy¬based machine learning techniques. Next we identify tokens that are known to the reference lexicon but are nevertheless the result of an alteration (grammatical errors), and generate normalisation candidates for each of them. Finally, language models allow us to perform a context-sensitive disambiguation of the normalisation candidates generated for all types of alterations. Numerous experiments and evaluations are carried out on French data for each module and for the overall pipeline. Special attention has been paid to keep all modules as language-independent as possible, which paves the way for future adaptations of our pipeline to other European languages
APA, Harvard, Vancouver, ISO, and other styles
14

Harmston, Nathan. "Probabilistic species-driven gene mention normalisation." Thesis, Imperial College London, 2013. http://hdl.handle.net/10044/1/39837.

Full text
Abstract:
The scientific literature is an important for source of knowledge about biological sys- tems and their constituent components. But the increase in the rate of new publications means that manual curation of the literature has become intractable. This has motivated the development and application of text mining methods to automatically extract the in- formation present in the scientific literature. Extracting information automatically from text is, however, an inherently noisy process and this uncertainty provides the rationale for the development of probabilistic methods for text mining. In this thesis, we concern ourselves with the task of identifying gene mentions in text and normalising these to unique Entrez gene identifiers, referred to as species-driven gene mention normalisation. We propose novel heuristics which improve the performance of species mention normalisation and reduce the number of ambiguous mentions found in the MEDLINE database. This directly impacts the performance down- stream components and we provide a novel probabilistic method for assigning a species to individual gene mentions. In order to avoid uncertainties and noise being propagated in text-mining approaches we develop a Bayesian network description of a text mining pipeline, which allows us to quantify uncertainties reliably and in an easily interpretable manner. Our results show the importance of incorporating as much information as possible into the text mining pipeline and the importance of viewing text mining as a noisy system.
APA, Harvard, Vancouver, ISO, and other styles
15

Gabbay, Michael Joel. "Proof-normalisation and truth by definition." Thesis, King's College London (University of London), 2005. http://sas-space.sas.ac.uk/1053/.

Full text
Abstract:
In this thesis I defend an account of analyticity against some well known objections. I defend a view of analyticity whereby an analytic truth is true by definition, and that logical connectives may be defined by their inference rules. First I answer objections that the very idea of truth-by-definition is metaphysically flawed (things are true because of the world, not definition, it seems). More importantly, I respond to objections that no theory of definitions by inference rules (i.e. implicit definitions) can be given that does not allow spurious definitions (e.g. the `definition' of Prior's connective tonk). I shall argue that demanding normalisation (a.k.a. harmony) of definitional inference rules is a natural and well motivated solution to these objections. I conclude that a coherent account of implicit definition can be given as the basis of an account of analyticity. I then produce some logical results showing that we can give natural deduction rules for complex and interesting logical systems that satisfy a normal form theorem. In particular, I present a deduction system for classical logic that is harmonious (i.e. deductions in it normalise), and show how to extend and enhance it to include strict conditionals and empty reference. Also I discuss two areas where our reasoning and classical logic appear not to match: general conditional reasoning, and reasoning from contradictions. I present a general theory of conditionals (along the lines of Lewis' closest-possible-world account) and I suggest that the logic of conditionals is not entirely analytic. Also, I discuss issues surrounding the ex falso rule and conclude that everything really does follow from a contradiction. Finally I suggest a positive theory of when and how the implicit definitions are made that define our logical language.
APA, Harvard, Vancouver, ISO, and other styles
16

He, Ben. "Term frequency normalisation for information retrieval." Thesis, University of Glasgow, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.438090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Deterding, David Henry. "Speaker normalisation for automatic speech recognition." Thesis, University of Cambridge, 1990. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.359822.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Mangematin, Vincent. "Recherche coopérative et stratégie de normalisation." Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090002.

Full text
Abstract:
Trois enseignements peuvent être tirés de ce travail : 1) les caractéristiques des objets techniques dépendent de la manière dont ils ont été conçus et développés. A technologie équivalente, un produit issu d'une recherche coopérative et un produit issu d'une recherche menée par une entreprise isolée seront différents. 2) la nature et l'intensité de la compétition sont influencées par les caractéristiques des objets techniques. Les technologies de l'information et de la communication, en particulier sont soumises à des rendements croissants d'adoption qu'il est nécessaire de gérer notamment en choisissant les premiers usagers idoines. 3) la gestion stratégique de la technologie implique une description précise des objets techniques en compétition. La constitution d'un répertoire de description de la technique constitue une première étape qui permet de choisir le degré de compatibilité et de substituabilité des technologies en compétition. Les entreprises peuvent alors concevoir et mener des stratégies de qualification des produits et de positionnement des objets techniques dans des espaces de compétition qui leur sont favorables
Three major results can be drawn from this research : 1) the characteristics of technical objects depend of the mode by which they were designed and developed. Technology designed by a consortium will be different to equivalent technology designed by the firm alone. 2) The nature and the intensity of the competition are influenced by the characteristics of technical objects. Information and communication technologies in particular are subjected to increasing returns to adoption. It is necessary to manage the latter, in particular by choosing the right first users. 3) Strategic management of technology implies a precise description of technologies in competition. The research has led to the constitution of such a repertoire. Thanks to this description, the manager can determine the level of compatibility and substitutability of his technology. Enterprises can influence the qualification of there products and thereby influence the competition by competing in a field in which they have a strategic advantage
APA, Harvard, Vancouver, ISO, and other styles
19

Ezzabdi, El Mokhtar. "La normalisation du droit bancaire marocain." Perpignan, 2011. http://www.theses.fr/2011PERP1047.

Full text
Abstract:
Il est universellement reconnu que le principal facteur de développement économique, relève d’une politique adéquate d’investissement, basée sur la masse importante des capitaux investis et sur leur emploi rentable et productif. Le financement de cet investissement, subordonné à la disponibilité de l’épargne, est assuré par les banques dont le rôle historique de collecte et de redistribution des fonds est incontournable. Ce rôle les expose à plusieurs risques pouvant compromettre la continuité de leur activité, voire, engendrer une défaillance du système financier en général. Cette situation grave, corroborée par de nombreux scandales financiers retentissants, a obligé le Maroc, à l’instar du monde occidental, à manifester sa volonté pour normaliser son droit bancaire en fonction des exigences internationales. Alliant deux approches complémentaires, cette étude se focalise d’abord sur le volet théorique, tandis que la deuxième approche se veut un amalgame entre les cas concrets de la défaillance et la réaction théorique et normative du Droit, permettant en définitive, de comprendre la problématique de ce thème et de poser les jalons d’une solution efficace au défi éternel du risque
APA, Harvard, Vancouver, ISO, and other styles
20

Turinetti, Alice. "La normalisation : Etude en droit économique." Thesis, Montpellier 1, 2014. http://www.theses.fr/2014MON10041.

Full text
Abstract:
Alors que le recours à la normalisation est croissant dans le domaine des activités économiques, il est pertinent de constater que l’appréhension théorique du phénomène s’est bien souvent limitée à son identification technique.Pourtant, la normalisation doit être tenue pour un phénomène normatif plus vaste, dont les implications tant juridiques que pratiques ne peuvent être ignorées. La thèse ici présentée propose une étude d’ensemble du phénomène. Celle-ci fait apparaître son extraordinaire variété et la complexité de son articulation avec le droit économique. La réflexion partira du constat que la normalisation se manifeste à l’ordre juridique par l’intermédiaire de formes normatives variées, qui ne se limitent pas au domaine de la normalisation technique. Dès lors, l’adoption d’une analyse conceptuelle prend tout son sens. D’une part, elle permet de dégager qu’elles sont les caractéristiques permettant d’identifier les manifestations normatives relevant, ou non, d’un processus de normalisation. D’autre part, elle précise dans quelle mesure les normes issues de la normalisation sont porteuses de normativité juridique. Une telle analyse est logiquement complétée par une approche fonctionnelle du phénomène. Celle-ci révèle la contribution de ce processus à la mise en oeuvre du droit économique et précise dans quelle mesure il peut participer à sa création. Néanmoins l’articulation de la normalisation avec le droit économique ne se limite pas à la contribution de la première au second. Ainsi, l’étude de la confrontation de la normalisation à la matière nous permettra de relever que, si la normalisation facilite les échanges et dans une certaine mesure la concurrence, elle peut également restreindre la compétition entre les entreprises sur le marché
While the use of standards is increasing in the field of economic activities, it is pertinent to note that the theoretical understanding of the phenomenon was often limited to technical identification. However, standardization should be held to a broader normative phenomenon, both legal and practical implications can not be ignored. The thesis presented here provides a comprehensive study of the phenomenon. This shows the extraordinary variety and complexity of itsrelationship with the economic law. Reflection based on the premise that standardization occurs in the legal system through various forms of standards, which are not confined to the field of technical standardization. Therefore, the adoption of a conceptual analysis makes sense. On the one hand, it allows to identify the characteristics that are used to identify normative events coming or not a process of normalization. On the other hand, it specifies how standards from standardization are carriers of legal normativity. Such analysis is logically complemented by a functional approach to the phenomenon. It reveals the contribution of this process to the implementation of economic law and specifies howt hey can participate in its creation. Nevertheless, the articulation of economic normalization with the law is not limited to the contribution of the former to the latter. Thus, the study of the confrontation of standardization in this area will allow us to observe that, although standardization facilitates trade and to some extent competition, it may also restrict competition between firms in the market
APA, Harvard, Vancouver, ISO, and other styles
21

Charre, Bich Thuy. "Normalisation environnementale et organisation de l'industrie." Nice, 2000. http://www.theses.fr/2000NICE0007.

Full text
Abstract:
Le comportement des entreprises en matiere d'environnement a considerablement evolue depuis ces dernieres decennies. Cette prise de conscience des entreprises a eu pour consequence de considerer que, outre leurs produits, la facon dont elles fabriquent ces derniers a aussi un impact sur l'environnement qu'il faut maitriser. Ainsi, la norme environnementale iso 14001 represente un outil permettantaux entreprises de se conformer plus facilement aux reglementations et d'atteindre une meilleure performance environnementale en reexaminant leur maniere de produire. La these presente donc, dans un premier temps, le phenomene de la certification environnementale iso 14001 a travers une etude empirique qui repose sur la construction d'une base de donnees originale. Son originalite tient a l'exploitation de l'enquete liaisons industrielles du sessi qui s'interesse aux differentes relations inter - entreprises. Cette etude met en evidence que la certification environnementale s'etend dans les secteurs ou se nouent des relations intensives de partenariat. Ainsi, face a cette caracteristique, il devient possible de proposer, dans un second temps, une definition du role economique de la certification environnementale. Cependant si la question de l'environnement en economie n'est pas nouvelle, l'essentiel des travaux consacres a l'environnement demeure limite a la problematique du marche et a l'application du concept d'externalite. Or, la progression constante du nombre d'entreprises certifiees, surtout dans les secteurs les moins polluants, montre que la norme offre d'autres avantages qui ne sont pas sans consequences sur leurs activites et sur leurs relations industrielles. C'est pourquoi, afin d'apprecier la fonction economique de la norme iso 14001, en accord avec les caracteristiques empiriques presentees, il convient de recourir a une conception de la firme et de l'industrie qui puisse rendre compte des activites productives des entreprises certifiees.
APA, Harvard, Vancouver, ISO, and other styles
22

Dawes, Nicola Louise. "Normalisation and analysis of genome expression data." Thesis, University of Newcastle Upon Tyne, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.430348.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Aler, Tubella Andrea. "A study of normalisation through subatomic logic." Thesis, University of Bath, 2017. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.715305.

Full text
Abstract:
We introduce subatomic logic, a new methodology where by looking inside of atoms we are able to represent a wide variety of proof systems in such a way that every rule is an instance of a single, regular, linear rule scheme. We show the generality of the subatomic approach by presenting how it can be applied to several different systems with very different expressivity. In this thesis we use subatomic logic to study two normalisation procedures: cut-elimination and decomposition. In particular, we study cut-elimination by characterising a whole class of substructural logics and giving a generalised cut-elimination procedure for them, and we study decomposition by providing generalised rewriting rules for derivations that we can then apply to decompose derivations and to eliminate cycles.
APA, Harvard, Vancouver, ISO, and other styles
24

Coetsee, Dirko. "Conditional random fields for noisy text normalisation." Thesis, Stellenbosch : Stellenbosch University, 2014. http://hdl.handle.net/10019.1/96064.

Full text
Abstract:
Thesis (MScEng) -- Stellenbosch University, 2014.
ENGLISH ABSTRACT: The increasing popularity of microblogging services such as Twitter means that more and more unstructured data is available for analysis. The informal language usage in these media presents a problem for traditional text mining and natural language processing tools. We develop a pre-processor to normalise this noisy text so that useful information can be extracted with standard tools. A system consisting of a tokeniser, out-of-vocabulary token identifier, correct candidate generator, and N-gram language model is proposed. We compare the performance of generative and discriminative probabilistic models for these different modules. The effect of normalising the training and testing data on the performance of a tweet sentiment classifier is investigated. A linear-chain conditional random field, which is a discriminative model, is found to work better than its generative counterpart for the tokenisation module, achieving a 0.76% character error rate compared to 1.41% for the finite state automaton. For the candidate generation module, however, the generative weighted finite state transducer works better, getting the correct clean version of a word right 36% of the time on the first guess, while the discriminatively trained hidden alignment conditional random field only achieves 6%. The use of a normaliser as a pre-processing step does not significantly affect the performance of the sentiment classifier.
AFRIKAANSE OPSOMMING: Mikro-webjoernale soos Twitter word al hoe meer gewild, en die hoeveelheid ongestruktureerde data wat beskikbaar is vir analise groei daarom soos nooit tevore nie. Die informele taalgebruik in hierdie media maak dit egter moeilik om tradisionele tegnieke en bestaande dataverwerkingsgereedskap toe te pas. ’n Stelsel wat hierdie ruiserige teks normaliseer word ontwikkel sodat bestaande pakkette gebruik kan word om die teks verder te verwerk. Die stelsel bestaan uit ’n module wat die teks in woordeenhede opdeel, ’n module wat woorde identifiseer wat gekorrigeer moet word, ’n module wat dan kandidaat korreksies voorstel, en ’n module wat ’n taalmodel toepas om die mees waarskynlike skoon teks te vind. Die verrigting van diskriminatiewe en generatiewe modelle vir ’n paar van hierdie modules word vergelyk en die invloed wat so ’n normaliseerder op die akkuraatheid van ’n sentimentklassifiseerder het word ondersoek. Ons bevind dat ’n lineêre-ketting voorwaardelike toevalsveld—’n diskriminatiewe model — beter werk as sy generatiewe eweknie vir tekssegmentering. Die voorwaardelike toevalsveld-model behaal ’n karakterfoutkoers van 0.76%, terwyl die toestandsmasjien-model 1.41% behaal. Die toestantsmasjien-model werk weer beter om kandidaat woorde te genereer as die verskuilde belyningsmodel wat ons geïmplementeer het. Die toestandsmasjien kry 36% van die tyd die regte weergawe van ’n woord met die eerste raaiskoot, terwyl die diskriminatiewe model dit slegs 6% van die tyd kan doen. Laastens het ons bevind dat die vooraf normalisering van Twitter boodskappe nie ’n beduidende effek op die akkuraatheid van ’n sentiment klassifiseerder het nie.
APA, Harvard, Vancouver, ISO, and other styles
25

Battyanyi, Péter. "Propriétés de normalisation de calculs logiques symétriques." Chambéry, 2007. http://www.theses.fr/2007CHAMS038.

Full text
Abstract:
Dans cette thèse quelques-uns des calculs ont été étudiés qui peuvent être mis en rapport avec la logique classique à l'aide de l'isomorphisme de Curry-Howard. On étudie tout d'abord le λμ-calcul simplement typé de Parigot. Parigot a prouvé que son calcul est fortement normalisable. Ensuite, David et Nour ont donné une preuve arithmétique de la normalisation forte du λμμ'-calcul. Cependant, si l'on ajoute au λμμ'-calcul la règle ρ de simplification, la normalisation forte est perdue. On montre que le μμ'ρ-calcul non-typé est faiblement normalisable et que le λμμ'ρ-calcul typé est aussi faiblement normalisable. On établit ensuite une borne de la longueur des séquences de réductions en λμρθ-calcul simplement typé. Ce résultat est une extension de celui de Xi pour le λ-calcul simplement typé. Dans le chapitre suivant on présente une preuve arithmétique de la normalisation forte du λ-calcul symétrique de Berardi et Barbanera. Enfin, on établit des traductions entre le λ-calcul symétrique de Berardi et Barbanera et le λμ*-calcul, qui est le calcul de Curien et Herbelin étendu avec une négation, de telle manière que la normalisation forte d'un de ces calculs implique celle de l'autre
This thesis examines, from proof theoretical point of view, some of the calculi which can be related to classical logic by the Curry-Howard isomorphism. First of all, we study the simply typed λμ-calculus defined by Parigot. Parigot proved that the λμ-calculus is strongly normalizing. David and Nour showed that the strong normalization is preserved for the λμμ'-calculus also. This is no more true if we add the ρ-rule to the λμμ'-calculus. However, the weak normalization still holds. We prove that the untyped μμ'ρ calculus as well as the typed λμμ'ρ-calculus are weakly normalizing. Next, a bound for the lengths of the reduction sequences in the simply typed λμρθ-calculus is established, extending a result of Xi stated for the simply typed λ-calculus. Then we give an arithmetical proof for the strong normalization of the simply typed symmetric λ-calculus defined by Berardi and Barbanera. Finally, we define a translation between the simply typed symmetric λ-calculus and an extension of the λμ*-calculus of Curien and Herbelin in such a way that the strong normalization of one of the calculi implies that of the other one
APA, Harvard, Vancouver, ISO, and other styles
26

OLIVE, FREDERIC. "Caracterisation des problemes np : robustesse et normalisation." Caen, 1996. http://www.theses.fr/1996CAEN2028.

Full text
Abstract:
Le developpement de la theorie des modeles finis a favorise une nouvelle approche de la notion de complexite algorithmique. L'identification des problemes combinatoires a des ensembles de structures finies a en effet permis l'interpretation des classes de complexite en terme de langages logiques. Nous prouvons dans ce cadre l'inclusion de la classe nlin des problemes reconnaissables en temps lineaire sur ram non deterministes dans la logique du second ordre monadique existentiel avec addition. Ceci permet d'affirmer la caracterisation par cette logique de la plupart des problemes np-complets usuels. Puis nous montrons qu'en presence du successeur, les classes de structures nlin coincident avec les ensembles de modeles des formules du second ordre existentiel fonctionnel unaire comportant une unique variable du premier ordre quantifiee universellement, et dont la matrice est une simple conjonction d'egalites. Cette caracterisation purement conjonctive, a bien des egards optimale, se generalise au temps polynomial. Enfin nous etablissons l'identite des langages rudimentaires et des langages caracterises par une formule du second ordre monadique. Nous obtenons en corollaire un resultat de representation des spectres en termes d'ensembles d'entiers rudimentaires
APA, Harvard, Vancouver, ISO, and other styles
27

Zamphiroff, Olivier. "Esquisse d'une théorie juridique de la normalisation." Aix-Marseille 3, 1990. http://www.theses.fr/1990AIX32011.

Full text
Abstract:
La normalisation interesse le juriste sous un double aspect. D'une part, la normalisation peut etre presentee en tant qu'instrument juridique d'une politique de la qualite (i). D'autre part, la normalisation doit etre envisagee comme un instrument juridique d'amenagement du contrat (ii). I. La normalisation offre le cadre juridique permettant la rencontre de tous les acteurs de la vie economique pour determiner le statut de la qualite des produits et services, par l'elaboration des documents techniques specifiques que sont les normes. Parallelement aux rares cas ou la norme est rendue obligatoire, les professionnels respecteront volontairement la norme en raison de la valeur que lui accordent l'administration et le juge. Ii. Par les procedes normatifs d'information pre-contractuelle par la reference aux normes techniques dans les contrats, par les recommandations relatives a la conclusion de certains contrats, par les instruments de paiement normalises, la normalistion poursuit volontairement ou non, aussi bien au stade de la formation du contrat qu'a celui de ses effets, les objectifs de simplification et d'equilibrage de la relation contractuelle
Standardization concerns jurist in a double bearing. On the one hand, standardization may be described as a legal process of a quality policy (1). On the other, standardization must be considered as legal process of contract arrangement (ii). 1. Standardization presents the legal setting which enables the meeting of all the economic life actors in order to settle the quality status of products and services by means of elaboration specific technical documents called "standards". Parallely the infrequent cases of compulsory standards, professionals will voluntarily comply with standards owing to their value for the public management and judge. Ii. By means of contractual information standardized process, of reference to the technical standards in the contracts, of standardized recommandations to conclued some contracts, of standardized payment process, standardization seeks, voluntarily or not, both stage of formation and effects of the contract, objectives of simplification and equalization of the contractual relation
APA, Harvard, Vancouver, ISO, and other styles
28

Chiabrando, Fabien. "Risque avec normalisation aléatoire et test d'additivité." Aix-Marseille 1, 2008. http://www.theses.fr/2008AIX11086.

Full text
Abstract:
Cette thèse est consacrée à l'amélioration de l'estimation d'une fonction ou signal f, par le biais d'une approche voisine à l 'approche minimax. Cette démarche est motivée par la construction de régions de confiance, pour f, plus fines que celle obtenues via l'approche d'estimation dans le cadre minimax. En effet, nous nous intéressons ici à estimer des fonctions de plusieurs variables (on notera d leur nombre) pouvant être intégrées en pratique dans des modèles économiques, biologiques et autres domaines pouvant mettre en jeu un nombre conséquent de critères quantitatifs. De manière générale et contrairement au problème paramétrique, lorsque la valeur du paramètre d est grande, l'efficacité des résultats minimax s'en ressent. Ce phénomène est connu au sein de la communauté statistique sous le nom de "malédiction de la dimension" (curse of dimensionality). Afin de ne pas pénaliser l'estimation en grande dimension ou de manière générale dans des modèles où l approche minimax n'est pas satisfaisante (sur des espaces fonctionnels trop massifs), Lepski a developpé une approche alternative. Celle-ci se base sur l'idée simple d'adapter la méthode d'estimation en fonction des résultats de tests d'hypothèses accélératrices'. Cette démarche utilise des résultats issus de la théorie des tests afin d'envisager une estimation adaptative. Elle va nous amener à introduire le concept de risque avec normalisation aléatoire. Ainsi nous nous consacrerons par la suite à résoudre deux types de problèmes statistiques fortement reliés
My thesis is devoted to the extension of the notion of risk with normalizing factor, initiated by Lepski, in the regression model. This method aims to fight the "curse of dimensionality" faced in estimation problems using hypothesis testing theory
APA, Harvard, Vancouver, ISO, and other styles
29

Ebersold, Serge. "La normalisation de l'infirme, l'invention du handicap." Strasbourg 2, 1991. http://www.theses.fr/1991STR20011.

Full text
Abstract:
Le handicap est de ces expressions qui appartiennent aux evidences quotidiennes qui ont penetre le vocabulaire de la loi et de l'action administrative et qui se sont imposees dans nombre d'elaborations servantes. Ces evidences font cependant par trop oublier que les enonces participent de l'ensemble des echanges sociaux et qu'ils meritent en consequence une grande atention : ils sont en effet un enjeu dans des luttes d'ordre symbolique ou il s'agit, en imposant des representations et des designations, de reconnaitre une realite et de la faire exister socialement. On ne saurait de ce fait apprehender le langage du handicap sans faire l'economie du processus a partir duquel il s'est organise, c'est-a-dire sans construire le systeme de relations selon lequel est produit ce qui apparait etre un objet preconstruit. La sociologie du handicap est, en ce sens, un de ces cas ou la sociologie de l'objet preconstruit est l'objet de recherche. La reflexion qui dirige cette recherche s'organise en consequence moins autour des frontieres entre le normal et le pathologique qu'autour des conditions sociales et historiques de possibilite de ce fait social qu'est le langage du handicap. L'objet de l'analyse ne porte pas sur une question de definitive visant a cerner les composantes d'un probleme social. . Il entend considerer le mode de gestion de l'alterite qui est au principe de l'emergence
The language of handicap appears very complex for anybody who wants analyse it : even if it entered into the law vocabulary and forced itself into scientist theories, it's still quite difficult to define it. That is the reason why this research analyses this language from the analysis of the process in which this language was socialy organized; that means that this research takes count of the relations system which producted what appears as a preconstructed object. The sociology of handicap is in that sens a sociology where the preconstructed object is the object of the research. The analysis doesn't try to define the frontiers between normality and pathology but the social and historical conditions which contribued to the utilization of the language of handicap to design the deficient persons
APA, Harvard, Vancouver, ISO, and other styles
30

Busatto, Renato. "The use of proof planning in normalisation." Thesis, University of Edinburgh, 1995. http://hdl.handle.net/1842/21666.

Full text
Abstract:
Theorem proving in undecidable theories has to resort to semi-decision procedures, i.e. partial computable functions that halt when the input formula is a theorem, but may not terminate otherwise. Their performance can be improved once heuristic mechanisms are introduced to guide search. Heuristic functions, however, sometimes assume the properties of a particular subclass of formulae to be valid in a larger domain, and may as a result fail to recognise a theorem due to the loss of completeness. Efficiency may also be improved when the decidability of subclasses of formulae is explored. Decision procedures establish, after a finite amount of time and computation, whether a formula of a class is a theorem or not. Their main advantage is their total computability, i.e. computation terminates for every formula of the domain, whether it is a theorem or not. Their reduced scope of application and, in some cases, their complexity are, nonetheless, the main limitations. Evidence suggests that the development of efficient mechanical theorem provers requires the integration of both heuristic modules and decision procedures inside hybrid systems. Integration is achieved through at least three strategies. (i) juxtaposition, where each component of the system operates independently from the others, and there is no communication between them, (ii) cooperation, where the behaviour of a component influences others, and communication is direct, and (iii) interfacing, where transformation or simplification steps take place before a formula is delivered to a component of the system, in which case communication amongst modules is mediated. From the decision procedure viewpoint, the main effect of its integration into a prover is the enlargement of the decidable domain, whereas, for the heuristic component, there is a reduction in the number of subproblems it has to address.
APA, Harvard, Vancouver, ISO, and other styles
31

Jiang, Kai. "Normalisation C-infini des systèmes complètement intégrables." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC298/document.

Full text
Abstract:
Cette thèse est consacrée à l’étude de la linéarisation géométrique locale des systèmes complètement intégrables dans la catégorie C1. Le sujet est la conjecture de linéarisation géométrique proposée (et établie dans le cadre analytique) par Nguyen Tien Zung. Nous commençons par les systèmes linéaires, puis introduisons la normalisation dans la catégorie formelle. Nous montrons qu’un système intégrable peut être décomposé en une partie hyperbolique et une partie elliptique. Nous établissons une bonne forme normale de Poincaré-Dulac pour les champs de vecteurs et discutons sa relation avec la linéarisation géométrique. Nous montrons que les systèmes intégrables faiblement hyperboliques sont géométriquement linéarisables en utilisant les outils de Chaperon. Nous étudions les systèmes intégrables sur les espaces de petite dimension : si celle-ci n’est pas plus grande que 4, alors la plupart des cas sont géométriquement linéarisables ; en particulier, la linéarisation géométrique est possible pour les systèmes intégrables de type de foyer-foyer. Enfin, nous généralisons la démonstration en grande dimension et proposons une condition sur les variétés fortement invariantes, sous laquelle nous linéarisons géométriquement les systèmes. Nous parvenons également à normaliser une action de R × T à plusieurs foyers en nous référant aux idées de Zung
This thesis is devoted to the local geometric linearization of completely integrable systems in the C1 category. The subject is the geometric linearization conjecture proposed (and proved in the analytic case) by Nguyen Tien Zung. We start from linear systems and introduce normalization in the formal category. Wes how that an integrable system can be decomposed into a hyperbolic part and an elliptic part. We establish a good Poincaré-Dulac normal form for the vector fields and discuss its relation with geometric linearization. We prove that weakly hyperbolic integrable systems are geometrically linearizable byusing Chaperon’s tools. We then study integrable systems on small dimensional spaces: if the dimension is no more than 4, then most cases are geometrically linearizable; in particular,geometric linearization works for integrable system of focus-focus type. Finally, we generalize the proof to high dimensions and propose a condition about strongly invariant manifolds, under which we linearize the systems in the geometric sense. We also manage to normalize an R × T-action of several focuses by referring to the ideas of Zung
APA, Harvard, Vancouver, ISO, and other styles
32

Grenard, Agnès. "Normalisation, certification et organisation institutionnelle de l'industrie." Nice, 2000. http://www.theses.fr/2000NICE0016.

Full text
Abstract:
Le dispositif français de normalisation s'est transformé de façon significative au cours des dix dernières années. Aux fonctions techniques d'interchangeabilité qu'assurent traditionnellement les normes, s'ajoutent désormais des fonctions relatives à l'information commerciale sur la qualité des produits, à l'organisation productive des entreprises, l'ouverture des marchés ou encore la définition de niveaux de sécurité légale. Une telle perspective de changement pose des questions théoriques nouvelles à l'analyse économique, renvoyant en particulier à la place et au rôle de la normalisation dans le fonctionnement et l'organisation de l'industrie. Pour caractériser le phénomène du point de vue de l'organisation industrielle, on procède à une distinction fondamentale entre certification de produit et certification d'entreprise. En effet, bien que généralement, la normalisation trouve son existence dans l'absence d'information sur la qualité des produits, les normes d'entreprise ISO 9000 se distinguent des normes traditionnelles par le fait qu'elles ne concernent pas les produits fabriqués mais la manière dont la firme organise sa production. Ces normes portent donc sur les activités et l'organisation de l'entreprise
APA, Harvard, Vancouver, ISO, and other styles
33

Tissot, Hegler Correa. "Normalisation of imprecise temporal expressions extracted from text." reponame:Repositório Institucional da UFPR, 2016. http://hdl.handle.net/1884/43255.

Full text
Abstract:
Orientador : Prof. Dr. Marcos Didonet Del Fabro
Co-Orientador : Prof. Dr. Angus Roberts
Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 05/04/2016
Inclui referências : f. 95-105
Resumo: Técnicas e sistemas de extração de informações são capazes de lidar com a crescente quantidade de dados não estruturados disponíveis hoje em dia. A informação temporal está entre os diferentes tipos de informações que podem ser extraídos a partir de tais fontes de dados não estruturados, como documentos de texto. Informações temporais descrevem as mudanças que acontecem através da ocorrência de eventos, e fornecem uma maneira de gravar, ordenar e medir a duração de tais ocorrências. A impossibilidade de identificar e extrair informação temporal a partir de documentos textuais faz com que seja difícil entender como os eventos são organizados em ordem cronológica. Além disso, em muitas situações, o significado das expressões temporais é impreciso, e não pode ser descrito com precisão, o que leva a erros de interpretação. As soluções existentes proporcionam formas alternativas de representar expressões temporais imprecisas. Elas são, entretanto, específicas e difíceis de generalizar. Além disso, a análise de dados temporais pode ser particularmente ineficiente na presença de erros ortográficos. As abordagens existentes usam métodos de similaridade para procurar palavras válidas dentro de um texto. No entanto, elas não são suficientes para processos erros de ortografia de uma forma eficiente. Nesta tese é apresentada uma metodologia para analisar e normalizar das expressões temporais imprecisas, em que, após a coleta e pré-processamento de dados sobre a forma como as pessoas interpretam descrições vagas de tempo no texto, diferentes técnicas são comparadas a fim de criar e selecionar o modelo de normalização mais apropriada para diferentes tipos de expressões imprecisas. Também são comparados um sistema baseado em regras e uma abordagem de aprendizagem de máquina na tentativa de identificar expressões temporais em texto, e é analisado o processo de produção de padrões de anotação, identificando possíveis fontes de problemas, dando algumas recomendações para serem consideradas no futuro esforços de anotação manual. Finalmente, é proposto um mapa fonético e é avaliado como a codificação de informação fonética poderia ser usado a fim de auxiliar os métodos de busca de similaridade e melhorar a qualidade da informação extraída.
Abstract: Information Extraction systems and techniques are able to deal with the increasing amount of unstructured data available nowadays. Time is amongst the different kinds of information that may be extracted from such unstructured data sources, including text documents. Time describes changes which happen through the occurrence of events, and provides a way to record, order, and measure the duration of such occurrences. The inability to identify and extract temporal information from text makes it difficult to understand how the events are organized in a chronological order. Moreover, in many situations, the meaning of temporal expressions is imprecise, and cannot be accurately described, leading to interpretation errors. Existing solutions provide alternative ways of representing imprecise temporal expressions, though they are specific and hard to generalise. Furthermore, the analysis of temporal data may be particularly inefficient in the presence of spelling errors. Existing approaches use string similarity methods to search for valid words within a text. However, they are not rich enough to processes misspellings in an efficient way. In this thesis, we present a methodology to analyse and normalise of imprecise temporal expressions, in which, after collecting and pre-processing data on how people interpret vague descriptions of time in text, we compare different techniques in order to create and select the most appropriate normalisation model for different kinds of imprecise expressions. We also compare how a rule-based system and a machine learning approach perform on trying to identify temporal expression from text, and we analyse the process of producing gold standards, identifying possible sources of issues, giving some recommendations to be considered in future manual annotation efforts. Finally, we propose a phonetic map and evaluate how encoding phonetic information could be used in order to assist similarity search methods and improve information extraction quality.
APA, Harvard, Vancouver, ISO, and other styles
34

Poissonier, Maud Beatrix. "Iconic normalisation and segmentation in x-ray mammograms." Thesis, University of Oxford, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.289122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Kolossiatis, Michalis. "Modelling via normalisation for parametric and nonparametric inference." Thesis, University of Warwick, 2009. http://wrap.warwick.ac.uk/2769/.

Full text
Abstract:
Bayesian nonparametric modelling has recently attracted a lot of attention, mainly due to the advancement of various simulation techniques, and especially Monte Carlo Markov Chain (MCMC) methods. In this thesis I propose some Bayesian nonparametric models for grouped data, which make use of dependent random probability measures. These probability measures are constructed by normalising infinitely divisible probability measures and exhibit nice theoretical properties. Implementation of these models is also easy, using mainly MCMC methods. An additional step in these algorithms is also proposed, in order to improve mixing. The proposed models are applied on both simulated and real-life data and the posterior inference for the parameters of interest are investigated, as well as the effect of the corresponding simulation algorithms. A new, n-dimensional distribution on the unit simplex, that contains many known distributions as special cases, is also proposed. The univariate version of this distribution is used as the underlying distribution for modelling binomial probabilities. Using simulated and real data, it is shown that this proposed model is particularly successful in modelling overdispersed count data.
APA, Harvard, Vancouver, ISO, and other styles
36

Laurence, Grégoire. "Normalisation et Apprentissage de Transductions d'Arbres en Mots." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2014. http://tel.archives-ouvertes.fr/tel-01053084.

Full text
Abstract:
Le stockage et la gestion de données sont des questions centrales en infor- matique. La structuration sous forme d'arbres est devenue la norme (XML, JSON). Pour en assurer la pérennité et l'échange efficace des données, il est nécessaire d'identifier de nouveaux mécanismes de transformations automati- sables. Nous nous concentrons sur l'étude de transformations d'arbres en mots représentées par des machines à états finies. Nous définissons les transducteurs séquentiels d'arbres en mots ne pouvant utiliser qu'une et unique fois chaque nœud de l'arbre d'entrée pour décider de la production. En réduisant le problème d'équivalence des transducteurs séquentiels à celui des morphismes appliqués à des grammaires algébriques (Plandowski, 95), nous prouvons qu'il est décidable en temps polynomial. Cette thèse introduit la notion de transducteur travailleur, forme norma- lisée de transducteurs séquentiels, cherchant à produire la sortie le "plus tôt possible" dans la transduction. A l'aide d'un algorithme de normalisation et de minimisation, nous prouvons qu'il existe un représentant canonique, unique transducteur travailleur minimal, pour chaque transduction de notre classe. La décision de l'existence d'un transducteur séquentiel représentant un échantillon, i.e. paires d'entrées et sorties d'une transformation, est prouvée NP-difficile. Nous proposons un algorithme d'apprentissage produisant à par- tir d'un échantillon le transducteur canonique le représentant, ou échouant, le tout en restant polynomial. Cet algorithme se base sur des techniques d'infé- rence grammaticales et sur l'adaptation du théorème de Myhill-Nerode.
APA, Harvard, Vancouver, ISO, and other styles
37

Gundersen, Tom E. "A general view of normalisation through atomic flows." Thesis, University of Bath, 2009. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.519026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Molinder, Herman. "Adaptive Normalisation of Programme Loudness in Audiovisual Broadcasts." Thesis, Linköpings universitet, Kommunikationssystem, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-128795.

Full text
Abstract:
Loudness is a subjective measure of how loud an audio signal is perceived. Due to commercial pressures loudness has been exploited in broadcasts to attract and reach viewers and listeners. By means of signal processing it is possible to increase the loudness of an audio signal and still meet the contemporary legislated signal levelling requirements. With an aspiration to achieve equal average loudness between all broadcasting programmes the European Broadcasting Union have issued a standard that proposes methods to quantify loudness. This thesis applies those loudness quantities and proposes an online algorithm that adaptively normalises the loudness of audiovisual broadcasts without affecting the dynamics within programmes. The main application of the algorithm is to normalise the audio in broadcasting and distributing equipment with real-time requirements. The results were derived from simulations in Matlab using commercial broadcasts. The results showed that for certain types of broadcasts the algorithm managed to reduce the variation in average programme loudness with minor effects on dynamics within programmes.
Loudness är ett subjektivt mått på hur högljudd en ljudsignal uppfattas. Till följd av kommersiellt tryck har loudness utnyttjats i sändningar för att locka och nå tittare. Genom signalbehandling är det möjligt att öka loudness-nivån på en ljudsignal och fortfarande uppfylla dagens lagstadgade signalnivåkrav. Med strävan att uppnå en lika medel-loudness-nivå mellan alla program har Europeiska radio- och TV-unionen publicerat en standard som föreslår metoder för att kvantifiera loudness. Denna rapport tillämpar dessa metoder och föreslår en algoritm som adaptivt normaliserar loudness-nivån i audiovisuella sändningar utan att påverka dynamiken inuti program. Huvudtillämpningen för algoritmen är att normalisera ljudsignalen i sändnings- och distributionsutrustning med realtidskrav. Resultaten erhölls från simuleringar i Matlab där kommersiella sändningar användes. Resultaten visade att för vissa typer av sändningar lyckades algoritmen minska variationen i medel-loudness-nivå med smärre påverkan på dynamik inuti program.
APA, Harvard, Vancouver, ISO, and other styles
39

Hamza, Taher Tawfik Ahmed. "Normalisation techniques in proof theory and category theory." Thesis, University of St Andrews, 1986. http://hdl.handle.net/10023/13371.

Full text
Abstract:
The word problem for the free categories with some structure generated by a category X can be solved using proof-theoretical means. These free categories give a semantics in which derivations of GENTZEN's propositional sequent calculus can be interpreted by means of arrows of those categories. In this thesis we describe, implement and document the cut-elimination and the normalization techniques in proof theory as outlined in SZABO [1978]: we show how these are used in order to solve, mechanically, the word problem for the free categories with structure of : cartesian, bicartesian, distributive bicartesian, cartesian closed, and bicartesian closed. This implementation is extended by a procedure to interpret intuitionistic propositional sequent derivations as arrows of the above categories. Implementation of those techniques has forced us to modify the techniques in various inessential ways. The description and the representation in the syntax of our implementation of the above categories is contained in chapters 1 - 5, where each chapter describes one theory and concludes with examples of the system In use to represent concepts and solve simple word problems from category theory ( of various typos ). Appendix 1 contains some apparent printing errors we have observed in the work done by SZABO. The algorithms used in the proof of the cut-elimination theorems and normalization through chapters 1 - 5 are collected in appendices 2 - 4. Appendices 5 - 8 concern the implementation and its user manual.
APA, Harvard, Vancouver, ISO, and other styles
40

Lohrmann, Philipp. "Normalisation holomorphe et sectorielle de structures de Poisson." Toulouse 3, 2006. http://www.theses.fr/2006TOU30057.

Full text
Abstract:
Notre étude concerne les structures de Poisson à 1-jet nul. Dans une première partie, on établit l'existence d'une normalisation holomorphe vers une forme normale au sens de Dufour-Wade sous 2 conditions: une condition algébrique sur la forme normale formelle, et une condition de petits diviseurs diophantiens associés à la partie quadratique. Dans la deuxième partie on suppose que la condition algébrique sur la forme normale formelle n'est pas satisfaite. On montre que les séries normalisantes sont divergentes en général. On donne des conditions garantissant l'existence d'une certaine forme normale polynomiale, ainsi que l'existence de transformations normalisantes, holomorphes sur des domaines sectoriels de la forme a
APA, Harvard, Vancouver, ISO, and other styles
41

Péraldi, Leneuf Fabienne. "La politique communautaire d'harmonisation technique et de normalisation." Université Robert Schuman (Strasbourg) (1971-2008), 1996. http://www.theses.fr/1996STR30013.

Full text
Abstract:
L'étude de la politique communautaire d'harmonisation technique et de normalisation révèle l'émergence d'une nouvelle modalité d'intervention réglementaire de la communauté européenne dans le domaine de la libre circulation des marchandises, et plus particulièrement de la réglementation des produits industriels. La particularité du processus réside à la fois dans son caractère novateur du point du vue de la technique législative employée et dans sa finalité. Il inaugure un procédé de dérégulation au niveau des directives d'harmonisation, en conférant à des autorités privées spécialisées, la charge de l'élaboration des normes techniques qui relevait auparavant du domaine législatif. Il permet ainsi un allégement de la tâche normative des institutions, qui se concentreront dorénavant sur la définition d'exigences de sécurité, et vise à générer une meilleure efficacité. Au delà de ses caractéristiques à liées à sa conception, la politique d'harmonisation technique et de normalisation met en évidence l'émergence d'un service public européen de la normalisation. Celui-ci se situe à la frontière entre le mode libéral et la conception française en la matière. En effet, caractérisé par la promotion de la normalisation au titre d'une activité d'interêt public communautaire, il ne comporte cependant pas des liens de rattachement aussi étroits entre autorités publiques et privées, que ceux qui prévalent en France. Enfin, les conséquences juridiques d'un tel système sont d'importance, particulièrement du point de vue des actes émis par les organismes européens de normalisation, investis d'une mission d'interêt public
The study of the community technical harmonization and standardization policy, does make appear the emergence of a new regulative intervention of the european community in the field of free trade of goods and particulary, in the industrial product's regulation. The particular character of this new procedure lies on its innovating legislative technique and on its purpose. It does establish a deregulation procedure as regards the harmonization directives, charging specialized private authorities with the task of developping technical standards, activity that until now came under the legislative fiels. Thus, a lightening of the normative work of institutions is achieved, allowing then to concentrate on the definition of security requirements, generating in this way a better efficiency. Beyong the character related to its conception, the technical harmonization an standardization policy, does make clear the appearence of a european normalization public service. This would find itself in between the liberal formule and the french conception on this field. Actually, even if characterized by the promotion of the community's public interest activity, it does not contain links narrowly connecting public and private authorities as is the case en France
APA, Harvard, Vancouver, ISO, and other styles
42

Guilbert, Françoise. "Le pouvoir sanitaire : essai sur la normalisation hygiénique." Université Robert Schuman (Strasbourg) (1971-2008), 1992. http://www.theses.fr/1993STR30001.

Full text
Abstract:
Tentative de décantation d'un savoir universel sur l'homme (l'hygiène), puisé dans toutes les revues spécialisées de son siècle d'or (le XIXe), ce travail cherche à montrer le fil commun qui lie l'entreprise normalisatrice et l'élaboration d'un pouvoir qui lui est subséquent, aux autres systèmes normatifs (le droit, les mythes. . . ). Il s'agit de voir ce qui, dans l'homme, offre un espace commun à l'appel normalisateur et participe à l'entreprise humaine régulatrice la plus enveloppante : la civilisation. Le fil cherche dans trois livres (l'homme, le microcosme, la patrie), tient à un escamotage du corps comme chose pour en faire une personne gouvernable. Il apparaît comme un fondement essentiel d'une civilisation qui n'accepte que les normes qui s'y conforment et sont, de ce fait, en perpétuel travail d'harmonisation. S'attachant à l'anecdotique, la thèse fait "sonner" les informations de manière à révéler l'immense travail souterrain que cette recherche harmonique des normes sous-entend
From all the specialized reviews of his golden century (the XIXe), this work searchs to design the link which binds the normalization enterprise and the construction of a power which is subsequent, to the other normative systems (law, myths, scientific rationalisation, customs. . . ) And contributes to the space of civilization. The lead followed in the three books ( the man, the microcosm, the homeland) holds in a dodging of the body as a thing in order to make of it a gouvernable person. It is the essential fundation of civilization, which only accepts the norms in accordance and are in a perpetual work of harmonization
APA, Harvard, Vancouver, ISO, and other styles
43

Bergman, Nicklas. "Unsupervised Normalisation of Historical Spelling : A Multilingual Evaluation." Thesis, Uppsala universitet, Institutionen för lingvistik och filologi, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-362869.

Full text
Abstract:
Historical texts are an important resource for researchers in the humanities. However, standard NLP tools typically perform poorly on them, mainly due to the spelling variations present in such texts. One possible solution is to normalise the spelling variations to equivalent contemporary word forms before using standard tools. Weighted edit distance has previously been used for such normalisation, improving over the results of algorithms based on standard edit distance. Aligned training data is needed to extract weights, but there is a lack of such data. An unsupervised method for extracting edit distance weights is therefore desirable. This thesis presents a multilingual evaluation of an unsupervised method for extracting edit distance weights for normalisation of historical spelling variations. The model is evaluated for English, German, Hungarian, Icelandic and Swedish. The results are mixed and show a high variance depending on the different data sets. The method generally performs better than normalisation basedon standard edit distance but as expected does not quite reach up to the results of a model trained on aligned data. The results show an increase in normalisation accuracy compared to standard edit distance normalisation for all languages except German, which shows a slightly reduced accuracy, and Swedish, which shows similar results to the standard edit distance normalisation.
APA, Harvard, Vancouver, ISO, and other styles
44

Walker, Philippe. "L'éducation du patient adulte entre normalisation et normativité." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC0066.

Full text
Abstract:
L’éducation du patient adulte entre normalisation et normativité. Le développement de l’éducation du patient tente de répondre à l’inexorable progression du diabète et des autres maladies chroniques. L’objectif de cette thèse est d’interroger les rapports aux normes de santé des malades et des soignants. Il s’agit de comprendre ce qui sous-tend le développement de cette pratique avec une médecine qui progresse dans son approche scientifique. La pédagogie devient alors prescription à trouver la norme de santé. La substitution d’une norme médicale par une norme pédagogique pose question sur la démarche éducative entre normalisation et normativité. La normalisation expose le patient aux normes issues d’une médecine fondée sur les sciences alors que la normativité invite le malade à la recherche de ses propres normes de vie avec sa maladie. La démarche éthique permet de questionner l’autonomie prescrite et nous invite à partager nos impuissances pour mieux partager nos savoirs. Le courage nous paraît au cœur de la délibération pour adapter la démarche éducative à chaque situation singulière et permettre à l’éducation du patient d’être thérapeutique
Education of adult patients : between normalization and normativity. The development of patient education attempts to address the relentless progression of diabetes and other chronic diseases. The objective of this thesis is to examine therelationships between medical standards for patients and caregivers. It aims to understand what underlies the development of this practice with medicine that is progressing in its scientific approach. Then pedagogy becomes a prescription to find health standards. There placement of a medical standard with an educational standard brings into question the educational process between normalization and normativity. Normalization exposes thepatient to the rules that come from science-based medicine while normativity invites the patient to find their own standards in order to live with their illness. The ethical approach makes it possible to question the prescribed autonomy and invites us to share ourweaknesses in order to better share our knowledge. Courage seems to be at the core of the deliberation to adapt an educational approach to each individual situation to enable patient education to be therapeutic
APA, Harvard, Vancouver, ISO, and other styles
45

Grolleau, Gilles. "Normalisation et certification environnementales : une application à l'agriculture." Dijon, 2002. http://www.theses.fr/2002DIJOE007.

Full text
Abstract:
Après avoir défini et caractérisé la normalisation et les mécanismes associés, nous montrons que ces modèles sont confrontés à de nombreuses limites dans la réalité. Nous analysons les fonctions des normes éco-organisationnelles et montrons qu'elles constituent des dispositifs institutionnels. Suite à la caractérisation des approches volontaires, nous proposons un modèle générique d'adoption des approches volontaires. Nous réalisons une étude économétrique auprès d'agriculteurs, afin de cerner les déterminants de leur connaissance des systèmes de management environnemental et de leurs intentions relatives à l'adoption de la norme ISO 14001. Enfin, nous montrons que la réussite d'une stratégie d'éco-étiquetage des produits agro-alimentaires, est notamment conditionnée par sa propension à atténuer les problèmes liés à la nature collective et intangible des écoproduits et ceux liés aux capacités cognitives des individus, tout en n'engendrant pas des coûts de transaction excessifs
We define and characterize the process of standardization and other related mechanisms. We show that the elaborated concepts face many limits in the real world. We stress several particular functions of organizational standards and consider eco-organizational standards as institutional devices. The second section characterizes voluntary environmental approaches. We achieve a generic model of adoption of voluntary approach by a conventional maximizing profit firm. We test econometrically the patterns of knowledge and the patterns of adoption of environmental management systems by farmers. The third section shows that the success of an eco-differentiation strategy depends on its capabilities to (1) attenuate the problems resulting from the public and credence properties of environmentally friendly agro-food stuffs and (2) mitigate the limits resulting from bounded cognitive characteristics of consumers, without generating excessive transaction costs
APA, Harvard, Vancouver, ISO, and other styles
46

Krönkvist, Sarah. "L Universite de Vincennes : La normalisation et l influence." Thesis, Högskolan Dalarna, Franska, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:du-5503.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Lymn, Jessie. "'The ideal menstruating girl' : normalisation and the menstrual taboo /." Title page, contents and introduction only, 1999. http://web4.library.adelaide.edu.au/theses/09AR/09arl986.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Lengrand, Stéphane. "Normalisation & equivalence in proof theory & type theory /." St Andrews, 2007. http://hdl.handle.net/10023/319.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Lengrand, Stéphane J. E. "Normalisation & equivalence in proof theory & type theory." Thesis, University of St Andrews, 2006. http://hdl.handle.net/10023/319.

Full text
Abstract:
At the heart of the connections between Proof Theory and Type Theory, the Curry-Howard correspondence provides proof-terms with computational features and equational theories, i.e. notions of normalisation and equivalence. This dissertation contributes to extend its framework in the directions of proof-theoretic formalisms (such as sequent calculus) that are appealing for logical purposes like proof-search, powerful systems beyond propositional logic such as type theories, and classical (rather than intuitionistic) reasoning. Part I is entitled Proof-terms for Intuitionistic Implicational Logic. Its contributions use rewriting techniques on proof-terms for natural deduction (Lambda-calculus) and sequent calculus, and investigate normalisation and cut-elimination, with call-by-name and call-by-value semantics. In particular, it introduces proof-term calculi for multiplicative natural deduction and for the depth-bounded sequent calculus G4. The former gives rise to the calculus Lambdalxr with explicit substitutions, weakenings and contractions that refines the Lambda-calculus and Beta-reduction, and preserves strong normalisation with a full notion of composition of substitutions. The latter gives a new insight to cut-elimination in G4. Part II, entitled Type Theory in Sequent Calculus develops a theory of Pure Type Sequent Calculi (PTSC), which are sequent calculi that are equivalent (with respect to provability and normalisation) to Pure Type Systems but better suited for proof-search, in connection with proof-assistant tactics and proof-term enumeration algorithms. Part III, entitled Towards Classical Logic, presents some approaches to classical type theory. In particular it develops a sequent calculus for a classical version of System F_omega. Beyond such a type theory, the notion of equivalence of classical proofs becomes crucial and, with such a notion based on parallel rewriting in the Calculus of Structures, we compute canonical representatives of equivalent proofs.
APA, Harvard, Vancouver, ISO, and other styles
50

Garau, Giulia. "Speaker normalisation for large vocabulary multiparty conversational speech recognition." Thesis, University of Edinburgh, 2009. http://hdl.handle.net/1842/3983.

Full text
Abstract:
One of the main problems faced by automatic speech recognition is the variability of the testing conditions. This is due both to the acoustic conditions (different transmission channels, recording devices, noises etc.) and to the variability of speech across different speakers (i.e. due to different accents, coarticulation of phonemes and different vocal tract characteristics). Vocal tract length normalisation (VTLN) aims at normalising the acoustic signal, making it independent from the vocal tract length. This is done by a speaker specific warping of the frequency axis parameterised through a warping factor. In this thesis the application of VTLN to multiparty conversational speech was investigated focusing on the meeting domain. This is a challenging task showing a great variability of the speech acoustics both across different speakers and across time for a given speaker. VTL, the distance between the lips and the glottis, varies over time. We observed that the warping factors estimated using Maximum Likelihood seem to be context dependent: appearing to be influenced by the current conversational partner and being correlated with the behaviour of formant positions and the pitch. This is because VTL also influences the frequency of vibration of the vocal cords and thus the pitch. In this thesis we also investigated pitch-adaptive acoustic features with the goal of further improving the speaker normalisation provided by VTLN. We explored the use of acoustic features obtained using a pitch-adaptive analysis in combination with conventional features such as Mel frequency cepstral coefficients. These spectral representations were combined both at the acoustic feature level using heteroscedastic linear discriminant analysis (HLDA), and at the system level using ROVER. We evaluated this approach on a challenging large vocabulary speech recognition task: multiparty meeting transcription. We found that VTLN benefits the most from pitch-adaptive features. Our experiments also suggested that combining conventional and pitch-adaptive acoustic features using HLDA results in a consistent, significant decrease in the word error rate across all the tasks. Combining at the system level using ROVER resulted in a further significant improvement. Further experiments compared the use of pitch adaptive spectral representation with the adoption of a smoothed spectrogram for the extraction of cepstral coefficients. It was found that pitch adaptive spectral analysis, providing a representation which is less affected by pitch artefacts (especially for high pitched speakers), delivers features with an improved speaker independence. Furthermore this has also shown to be advantageous when HLDA is applied. The combination of a pitch adaptive spectral representation and VTLN based speaker normalisation in the context of LVCSR for multiparty conversational speech led to more speaker independent acoustic models improving the overall recognition performances.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!