Dissertations / Theses on the topic 'Sourves'

To see the other types of publications on this topic, follow the link: Sourves.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Sourves.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Feideropoulou, Georgia. "Codage Conjoint Source-Canal des Sources Vidéo." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001294.

Full text
Abstract:
L'objet de cette thèse est de proposer un codage conjoint source-canal de séquences vidéo pour la transmission sur des canaux sans fil. Le système de codage conjoint source-canal est fondée sur un quantificateur vectoriel structuré et une assignation linéaire d'étiquette qui minimisent simultanément la distorsion canal et la distorsion source. Le quantificateur vectoriel qui est construit à partir de constellations provenant de réseaux de points, lesquels satisfont la propriété de diversité maximale, minimise la distorsion source d'une source gaussienne. La distorsion canal est également minimisée par l'étiquetage linéaire. Nous avons étudié les dépendances entre les coefficients d'ondelettes provenant d'une décomposition t+2D, avec ou sans estimation de mouvement afin d'étendre le schéma du codage conjoint source-canal, développé pour les sources gaussiennes, dans le domaine vidéo où la distribution des coefficients est loin d'être gaussienne. Nous proposons un modèle doublement stochastique afin de capturer ces dépendances et nous l'appliquons à la protection des erreurs pour prédire les coefficients perdus et améliorer ainsi la qualité de vidéo. Dans le cas d'un canal gaussien, nous développons deux systèmes, un avec un étiquetage linéaire non codé et l'autre avec un étiquetage linéaire codé utilisant des codes de Reed-Muller. Nous comparons ces deux schémas de codage avec un schéma non-structuré dont l'étiquetage est adapté au canal et avec un coder vidéo scalable. Dans le cas d'un canal de Rayleigh non-sélectif à évanouissements indépendants le schéma devient robuste lorsque nous utilisons une matrice de rotation avant la transmission sur le canal.
APA, Harvard, Vancouver, ISO, and other styles
2

Feideropoulou, Georgia. "Codage conjoint source-canal des sources vidéo /." Paris : École nationale supérieure des télécommunications, 2005. http://catalogue.bnf.fr/ark:/12148/cb40021763z.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

O'Neill, Meagan. "Source Memory Failures: Comparing Source Misattribution to Sources of False Memories." Thesis, Virginia Tech, 2015. http://hdl.handle.net/10919/78099.

Full text
Abstract:
Successful episodic recollection occurs when an event properly binds with its context. Source misattribution demonstrates incorrect binding of a memory with its contextual information. By contrast, false memories are memories of events that did not occur. Although theoretically they should not be bound with contextual information, often, false memories are accompanied by contextual information. This phenomenon is known as content borrowing. This thesis project examined the differences between the two contextual memory errors. The DRM paradigm was used to induce both source misattributions and content borrowing. This allowed the neural differences between the two to be directly tested. No differences were found between source misattribution and content borrowing. However, false memories with content borrowing showed different neural activations from true memory with correct source, true memory with incorrect source, and correct rejection. This suggests that false memories and source misattributions may represent similar errors in memory that rely on gist memory traces.
Master of Science
APA, Harvard, Vancouver, ISO, and other styles
4

Franco, Bedoya Oscar Hernán. "Open source software ecosystems quality analysis from data sources." Doctoral thesis, Universitat Politècnica de Catalunya, 2018. http://hdl.handle.net/10803/462101.

Full text
Abstract:
Background: Open source software (OSS) and software ecosystems (SECOs) are two consolidated research areas in software engineering. The adoption of OSS by firms, governments, researchers and practitioners has been increasing rapidly in the last decades, and in consequence, they find themselves in a new kind of ecosystem composed by software communities,foundations, developers and partners, namely Open Source Software Ecosystem (OSSECO). In order to perform a systematic quality evaluation of a SECO, it is necessary to define certain types of concrete elements. This means that measures and evaluations should be described (e.g., through thresholds or expert judgment). The quality evaluation of an OSSECO may serve several purposes, for example: adopters of the products of the OSSECO may want to know about the liveliness of the OSSECO (e.g., recent updates); software developers may want to know about the activeness (e.g., how many collaborators are involved and how active they are); and the OSSECO community itself to know about the OSSECO health (e.g., evolving in the right direction). However, the current approaches for evaluating software quality (even those specific for open source software) do not cover all the aspects relevant in an OSSECO from an ecosystem perspective. Goal: The main goal of this PhD thesis is to support the OSSECO quality evaluation by designing a framework that supports the quality evaluation of OSSECOs. Methods: To accomplish this goal, we have used and approach based on design science methodology by Wieringa [1] and the characterization of software engineering proposed by M. Shaw [2], in order to produce a set of artefacts to contribute in thequality evaluation of OSSECOs and to learn about the effects of using these artefacts in practice. Results: We have conducted a systematic mapping to characterize OSSECOs and designed the QuESo framework (a framework to evaluate the OSSECO quality) composed by three artifacts: (i) QuESo-model, a quality model for OSSECOs; (ii) QuESoprocess, a process for conducting OSSECO quality evaluations using the QuESo-model; and (iii) QuESo-tool, a software component to support semi-automatic quality evaluation of OSSECOs. Furthermore, this framework has been validated with a case study on Eclipse. Conclusions: This thesis has contributed to increase the knowledge and understanding of OSSECOs, and to support the qualityevaluation of OSSECOs. [
ntecedentes: el software de código abierto (OSS, por sus siglas en inglés) y los ecosistemas de software (SECOs, por sus siglas en inglés) son dos áreas de investigación consolidadas en ingeniería de software. La adopción de OSS por parte de empresas, gobiernos, investigadores y profesionales se ha incrementado rápidamente en las últimas décadas, y, en consecuencia, todos ellos hacen parte de un nuevo tipo de ecosistema formado por comunidades de software, fundaciones, desarrolladores y socios denominado ecosistema de software de código abierto. (OSSECO, por sus siglas en inglés)). Para realizar una evaluación sistemática de la calidad de un SECO, es necesario definir ciertos tipos de elementos concretos. Esto significa que tanto las métricas como las evaluaciones deben ser descritos (por ejemplo, a través de datos históricos o el conocimiento de expertos). La evaluación de la calidad de un OSSECO puede ser de utilidad desde diferentes perspectivas, por ejemplo: los que adoptan los productos del OSSECO pueden querer conocer la vitalidad del OSSECO (por ejemplo, el número de actualizaciones recientes); los desarrolladores de software pueden querer saber sobre la actividad del OSSECO (por ejemplo, cuántos colaboradores están involucrados y qué tan activos son); incluso la propia comunidad del OSSECO para conocer el estado de salud del OSSECO (por ejemplo, si está evolucionando en la dirección correcta). Sin embargo, los enfoques actuales para evaluar la calidad del software (incluso aquellos específicos para el software de código abierto) no cubren todos los aspectos relevantes en un OSSECO desde una perspectiva ecosistémica. Objetivo: El objetivo principal de esta tesis doctoral es apoyar la evaluación de la calidad de OSSECO mediante el diseño de un marco de trabajo que ayude a la evaluación de la calidad de un OSSECO. Métodos: Para lograr este objetivo, hemos utilizado un enfoque basado en la metodología design science propuesta por Wieringa [1]. Adicionalmente, nos hemos basado en la caracterización de la ingeniería de software propuesta por M. Shaw [2], con el fin de construir un conjunto de artefactos que contribuyan en la evaluación de la calidad de un OSSECO y para conocer los efectos del uso de estos artefactos en la práctica. Resultados: Hemos realizado un mapeo sistemático para caracterizar los OSSECOs y hemos diseñado el marco de trabajo denominado QuESo (es un marco de trabajo para evaluar la calidad de los OSSECOs). QuESo a su vez está compuesto por tres artefactos: (i) QuESo-model, un modelo de calidad para OSSECOs; (ii) QuESo-process, un proceso para llevar a cabo las evaluaciones de calidad de OSSECOs utilizando el modelo QuESo; y (iii) QuESo-tool, un conjunto de componentes de software que apoyan la evaluación de calidad de los OSSECOs de manera semiautomática. QuESo ha sido validado con un estudio de caso sobre Eclipse. Conclusiones: esta tesis ha contribuido a aumentar el conocimiento y la comprensión de los OSSECOs, y tambien ha apoyado la evaluación de la calidad de los OSSECOs
APA, Harvard, Vancouver, ISO, and other styles
5

Albertson, Fredrik. "Acoustic source characterisation for non-linear in-duct sources /." Stockholm, 2001. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-3187.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Latif, Mohamed Amin. "Localization of brain signal sources using blind source separation." Thesis, Cardiff University, 2006. http://orca.cf.ac.uk/54567/.

Full text
Abstract:
Reliable localization of brain signal sources by using convenient, easy, and hazardless data acquisition techniques can potentially play a key role in the understanding, analysis, and tracking of brain activities for determination of physiological, pathological, and functional abnormalities. The sources can be due to normal brain activities, mental disorders, stimulation of the brain, or movement related tasks. The focus of this thesis is therefore the development of novel source localization techniques based upon EEG measurements. Independent component analysis is used in blind separation (BSS) of the EEG sources to yield three different approaches for source localization. In the first method the sources are localized over the scalp pattern using BSS in various subbands, and by investigating the number of components which are likely to be the true sources. In the second method, the sources are separated and their corresponding topographical information is used within a least-squares algorithm to localize the sources within the brain region. The locations of the known sources, such as some normal brain rhythms, are also utilized to help in determining the unknown sources. The final approach is an effective BSS algorithm partially constrained by information related to the known sources. In addition, some investigation have been undertaken to incorporate non-homogeneity of the head layers in terms of the changes in electrical and magnetic characteristics and also with respect to the noise level within the processing methods. Experimental studies with real and synthetic data sets are undertaken using MATLAB and the efficacy of each method discussed.
APA, Harvard, Vancouver, ISO, and other styles
7

Wu, Zhenyu, Ali Bilgin, and Michael W. Marcellin. "JOINT SOURCE/CHANNEL CODING FOR TRANSMISSION OF MULTIPLE SOURCES." International Foundation for Telemetering, 2005. http://hdl.handle.net/10150/604932.

Full text
Abstract:
ITC/USA 2005 Conference Proceedings / The Forty-First Annual International Telemetering Conference and Technical Exhibition / October 24-27, 2005 / Riviera Hotel & Convention Center, Las Vegas, Nevada
A practical joint source/channel coding algorithm is proposed for the transmission of multiple images and videos to reduce the overall reconstructed source distortion at the receiver within a given total bit rate. It is demonstrated that by joint coding of multiple sources with such an objective, both improved distortion performance as well as reduced quality variation can be achieved at the same time. Experimental results based on multiple images and video sequences justify our conclusion.
APA, Harvard, Vancouver, ISO, and other styles
8

Naqvi, Syed Mohsen Raza. "Multimodal methods for blind source separation of audio sources." Thesis, Loughborough University, 2009. https://dspace.lboro.ac.uk/2134/36117.

Full text
Abstract:
The enhancement of the performance of frequency domain convolutive blind source separation (FDCBSS) techniques when applied to the problem of separating audio sources recorded in a room environment is the focus of this thesis. This challenging application is termed the cocktail party problem and the ultimate aim would be to build a machine which matches the ability of a human being to solve this task. Human beings exploit both their eyes and their ears in solving this task and hence they adopt a multimodal approach, i.e. they exploit both audio and video modalities. New multimodal methods for blind source separation of audio sources are therefore proposed in this work as a step towards realizing such a machine. The geometry of the room environment is initially exploited to improve the separation performance of a FDCBSS algorithm. The positions of the human speakers are monitored by video cameras and this information is incorporated within the FDCBSS algorithm in the form of constraints added to the underlying cross-power spectral density matrix-based cost function which measures separation performance.
APA, Harvard, Vancouver, ISO, and other styles
9

Souviraà-Labastie, Nathan. "Détection de motifs audio pour la séparation de sources guidée : application aux bandes-son de films." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S174.

Full text
Abstract:
Lorsque l'on manipule un signal audio, il est généralement utile d'opérer un isolement du ou des éléments sonores que l'on cherche à traiter. Cette étape est couramment appelée séparation de sources audio. Il existe de nombreuses techniques pour estimer ces sources et plus on prend en compte d'informations à leur sujet plus la séparation a des chances d'être réussie. Une façon d'incorporer des informations sur une source est l'utilisation d'un signal de référence qui va donner une première approximation de cette source. Cette thèse s'attache à explorer les aspects théoriques et appliqués de la séparation de sources audio guidée par signal de référence. La nouvelle approche proposée appelée SPOtted REference based Separation (SPORES) examine le cas particulier où les références sont obtenues automatiquement par détection de motif, c'est-à-dire par une recherche de contenu similaire. Pour qu'une telle approche soit utile, le contenu traité doit comporter une certaine redondance ou bien une large base de données doit être disponible. Heureusement, le contexte actuel nous permet bien souvent d'être dans une des deux situations et ainsi de retrouver ailleurs des motifs similaires. L'objectif premier de ce travail est de fournir un cadre théorique large qui une fois établi facilitera la mise au point efficace d'outils de traitement de contenus audio variés. Le second objectif est l'utilisation spécifique de cette approche au traitement de bandes-son de films avec par exemple comme application leur conversion en format surround 5.1 adapté aux systèmes home cinéma
In audio signal processing, source separation consists in recovering the different audio sources that compose a given observed audio mixture. They are many techniques to estimate these sources and the more information are taken into account about them the more the separation is likely to be successful. One way to incorporate information on sources is the use of a reference signal which will give a first approximation of this source. This thesis aims to explore the theoretical and applied aspects of reference guided source separation. The proposed approach called SPOtted REference based Separation (SPORES) explore the particular case where the references are obtained automatically by motif spotting, i.e., by a search of similar content. Such an approach is useful for contents with a certain redundancy or if a large database is be available. Fortunately, the current context often puts us in one of these two situations and finding elsewhere similar motifs is possible. The primary objective of this study is to provide a broad theoretical framework that once established will facilitate the efficient development of processing tools for various audio content. The second objective is the specific use of this approach to the processing of movie soundtracks with application in 5.1 upmixing for instance
APA, Harvard, Vancouver, ISO, and other styles
10

Querol, del Amo Marc. "Open Source Software: critical review of scientific literature and other sources." Thesis, Norwegian University of Science and Technology, Department of Computer and Information Science, 2007. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-9548.

Full text
Abstract:

This thesis presents the results of a survey of Open Source Licensing literature. It aims to assist the reader in choosing the best license for his/her business. For this reason, the content of this thesis can be divided into: (i) an open source licensing overview, (ii) the explication of the main features of the most popular open source licenses, (iii) the consequences of using one or another and (iv) the critical or controversial issues related to Open Source Licensing. Furthermore, at the end of the thesis, the reader can ¯nd the method we followed to collect, classify and analyze the relevant information for the purpose of the survey.

APA, Harvard, Vancouver, ISO, and other styles
11

Erupe, Mark E. "Sources and Source Processes of Organic Nitrogen Aerosols in the Atmosphere." DigitalCommons@USU, 2008. https://digitalcommons.usu.edu/etd/196.

Full text
Abstract:
The research in this dissertation explored the sources and chemistry of organic nitrogen aerosols in the atmosphere. Two approaches were employed: field measurements and laboratory experiments. In order to characterize atmospheric aerosol, two ambient studies were conducted in Cache Valley in Northern Utah during strong winter inversions of 2004 and 2005. The economy of this region is heavily dependent on agriculture. There is also a fast growing urban population. Urban and agricultural emissions, aided by the valley geography and meteorology, led to high concentrations of fine particles that often exceeded the national ambient air quality standards. Aerosol composition was dominated by ammonium nitrate and organic species. Mass spectra from an aerosol mass spectrometer revealed that the organic ion peaks were consistent with reduced organic nitrogen compounds, typically associated with animal husbandry practices. Although no direct source characterization studies have been undertaken in Cache Valley with an aerosol mass spectrometer, spectra from a study at a swine facility in Ames, Iowa, did not show any evidence of reduced organic nitrogen species. This, combined with temporal and diurnal characteristics of organic aerosol peaks, was a pointer that the organic nitrogen species in Cache Valley likely formed from secondary chemistry. Application of multivariate statistical analyses to the organic aerosol spectra further supported this hypothesis. To quantify organic nitrogen signals observed in ambient studies as well as understand formation chemistry, three categories of laboratory experiments were performed. These were calibration experiments, smog chamber studies, and an analytical method development. Laboratory calibration experiments using standard calibrants indicated that quantifying the signals from organic nitrogen species was dependent on whether they formed through acid-base chemistry or via secondary organic aerosol pathway. Results from smog chamber reactions of amines with ozone, nitrogen oxides, nitrate radical, and nitric acid showed that the secondary organic aerosol pathway was more plausible than acid-base chemistry, thus making the contribution of the organic nitrogen species to the total aerosol mass in Cache Valley significant. Gas phase and aerosol products formed from the smog chamber reactions were identified and used to devise reaction mechanisms. Finally, an ion chromatographic method for detecting and quantifying some key organic nitrogen species in aerosol was developed and tested.
APA, Harvard, Vancouver, ISO, and other styles
12

Lee, Hanlim. "Identifying sources and source contributions of PM [subscript 2.5] in Atlanta Georgia." Thesis, Georgia Institute of Technology, 2002. http://hdl.handle.net/1853/20716.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Spalding, Duncan Robert. "Characterisation of treated timber sources of pesticide contaminants using source modelling techniques." Thesis, De Montfort University, 1999. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.391694.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Sama, Sanjana. "An Empirical Study Investigating Source Code Summarization Using Multiple Sources of Information." Youngstown State University / OhioLINK, 2018. http://rave.ohiolink.edu/etdc/view?acc_num=ysu1527673352984124.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Ivwurie, Wisdom. "Source appointment and use of hydropyroysis to elucidate sources of heavily biodegraded hydrocarbons." Thesis, University of Nottingham, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.422740.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Subbalakshmi, K. P. "Joint source-channel decoding of variable-length encoded sources with applications to image transmission." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0013/NQ61684.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Patzer, Cedric [Verfasser]. "Time-lapse inversion of Controlled Source Electromagnetics using vertical sources and receivers / Cedric Patzer." Berlin : Freie Universität Berlin, 2019. http://d-nb.info/1192755650/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Jacques-Boussard, Elodie. "Aux sources du malentendu entre interlocuteurs sourds et entendants : L'histoire, la langue, la culture." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCD001.

Full text
Abstract:
La surdité est un handicap ayant la particularité d'engager, outre la perceptionauditive, le langage et le rapport à l'autre. De nombreux malentendus de naturedifférente ont émergé au fil du temps et interviennent encore aujourd'hui dans leséchanges entre interlocuteurs sourds et entendants. Ces malentendus naissentd'une conception philosophique de la langue comme seule vecteur de pensée,d'une histoire traumatique marquée par l'interdiction de la langue des signes, etd'une langue spécifique, la LSF. L'ensemble de ces éléments participe à laconstruction culturelle et identitaire du sujet sourd, et influence de manièreimportante ses interactions. Les rapports de force qui en découlent nous ont amenéà questionner une autre forme de malentendu, reposant essentiellement sur lerapport sensoriel au monde. La présente thèse tente de s'interroger sur lesdifférentes sources du malentendu et leur impact sur le développement du discoursdu sujet, pour ensuite présenter une nouvelle forme de malentendu, reposant sur laperception des vibrations
Deafness is a disability which concerns not only the hearing perception, butlanguage as well as relationships. Numerous misconceptions have been createdover time, and even today they plague the relations between individuals withimpaired hearing and the rest of the world. These misconceptions stem from aphilosophical basis which considers language to be the only vector for thought.These misunderstandings were further aggravated by the traumatic history, namelythe ban on sign language, as well as the particular language known as LSF. All ofthese elements combined create the culture and identity of a deaf person today andplay a role in his interaction with society. The resulting conflicts have led us to thestudy of a different misconception, one which is mainly based on the sensoryrelationship with the world. This thesis tries to consider the different sources of thesemisconceptions and their impact on the development of the expression of a deafindividual. Then we'll discuss a new form of misconception, concerning theperception of vibrations
APA, Harvard, Vancouver, ISO, and other styles
19

ZEITUNI, CARLOS A. "Dosimetria de fontes de iodo-125 aplicadas em braquiterapia." reponame:Repositório Institucional do IPEN, 2008. http://repositorio.ipen.br:8080/xmlui/handle/123456789/11759.

Full text
Abstract:
Made available in DSpace on 2014-10-09T12:55:30Z (GMT). No. of bitstreams: 0
Made available in DSpace on 2014-10-09T14:04:57Z (GMT). No. of bitstreams: 0
Tese (Doutoramento)
IPEN/T
Instituto de Pesquisas Energeticas e Nucleares - IPEN-CNEN/SP
APA, Harvard, Vancouver, ISO, and other styles
20

RODRIGUES, BRUNA T. "Estudo e desenvolvimento de metodologia para fixação de iodo radioativo em substrato polimérico para confecção de fontes utilizadas em braquiterapia." reponame:Repositório Institucional do IPEN, 2015. http://repositorio.ipen.br:8080/xmlui/handle/123456789/23913.

Full text
Abstract:
Submitted by Maria Eneide de Souza Araujo (mearaujo@ipen.br) on 2015-10-07T14:24:32Z No. of bitstreams: 0
Made available in DSpace on 2015-10-07T14:24:32Z (GMT). No. of bitstreams: 0
Dissertação (Mestrado em Tecnologia Nuclear)
IPEN/D
Instituto de Pesquisas Energeticas e Nucleares - IPEN-CNEN/SP
APA, Harvard, Vancouver, ISO, and other styles
21

Traore, Sidi Yaya. "Le renouvellement des sources du droit des affaires." Thesis, Pau, 2019. http://www.theses.fr/2019PAUU2052/document.

Full text
Abstract:
Dans quelle mesure le renouvellement des sources du droit des affaires influe-t-il sur son évolution ? Telle est la question à laquelle cette étude s’efforce de répondre. L’intérêt d’examiner une telle question se pose aujourd’hui comme une nécessité pour deux raisons principales. La première est que ce domaine du droit est marqué par un foisonnement normatif sans précédent. Effectivement, outre l’émergence de nouvelles sources dans cette branche du droit, on assiste parallèlement à la mutation de ses sources traditionnelles que sont : la loi, la jurisprudence et les usages. Parmi les nouvelles sources, un grand nombre relève du droit souple. La thèse démontre comment celles-ci peuvent être admises au Panthéon des sources de la vie des affaires. La deuxième tient à la mondialisation, qui exacerbe la concurrence entre systèmes juridiques au « sein et en dehors de l’Union européenne ». Dans ce contexte, il est important de vérifier si le renouveau des sources du droit des affaires français favorise ou handicape sa compétitivité. En conséquence, la codification du droit des affaires, son attractivité, son assise épistémologique sont examinées sous le prisme du renouveau des sources de ce domaine du droit. La recherche montre, un droit des affaires renouvelé par ses sources, car celles-ci le rendent plus flexible, l’unifie et renforce son assise épistémologique. Mais ce renouveau doit aussitôt être relativisé, car il génère corrélativement aux avancées qui viennent d’être évoquées de l’insécurité juridique dans la vie des affaires.L’étude propose une approche renouvelée des sources du droit des affaires, et suggère une nouvelle définition du concept de source formelle. Elle ambitionne ainsi de contribuer à l’évolution de la théorie générale des sources du droit
To what extent does the renewal of business law sources influence its development? This is the question this study seeks to answer. The need to address such an issue arises today as a necessity for two main reasons. The first is that this area of law is marked by an unprecedented proliferation of standards. Indeed, in addition to the emergence of new sources in this branch of law, we are witnessing a parallel shift in its traditional sources: law, jurisprudence and practices. Many of the new sources are soft law. This thesis demonstrates how they can be admitted to the pantheon of the sources of the business world. The second is globalization, which exacerbates competition between legal systems "within and outside the European Union". In this context, it is important to verify whether the renewal of the sources of French business law favours or hinders its competitiveness. Consequently, the codification of business law, its attractiveness and its epistemological basis are examined from the perspective of the renewal of the sources of this field of law. Research shows that business law is renewed by its sources, because they make it more flexible, unify it and strengthen its epistemological basis. This renewal must however be put into perspective as it generates legal uncertainty in business world as a consequence of the aforementioned developments.The study proposes a renewed approach to the sources of business law, and suggests a new definition of the concept of formal source. In this way, it aims to contribute to the evolution of the general theory of the sources of law
APA, Harvard, Vancouver, ISO, and other styles
22

MATTOS, FABIO R. de. "Estudo e desenvolvimento de uma semente de irídio-192 para aplicação em câncer oftálmico." reponame:Repositório Institucional do IPEN, 2013. http://repositorio.ipen.br:8080/xmlui/handle/123456789/10518.

Full text
Abstract:
Made available in DSpace on 2014-10-09T12:41:25Z (GMT). No. of bitstreams: 0
Made available in DSpace on 2014-10-09T14:03:32Z (GMT). No. of bitstreams: 0
Dissertação (Mestrado)
IPEN/D
Instituto de Pesquisas Energeticas e Nucleares - IPEN-CNEN/SP
APA, Harvard, Vancouver, ISO, and other styles
23

Perotin, Lauréline. "Localisation et rehaussement de sources de parole au format Ambisonique : analyse de scènes sonores pour faciliter la commande vocale." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0124/document.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de l'essor des assistants vocaux mains libres. Dans un environnement domestique, l'appareil est généralement posé à un endroit fixe, tandis que le locuteur s'adresse à lui depuis diverses positions, sans nécessairement s'appliquer à être proche du dispositif, ni même à lui faire face. Cela ajoute des difificultés majeures par rapport au cas, plus simple, de la commande vocale en champ proche (pour les téléphones portables par exemple) : ici, la réverbération est plus importante ; des réflexions précoces sur les meubles entourant l'appareil peuvent brouiller le signal ; les bruits environnants sont également sources d'interférences. À ceci s'ajoutent de potentiels locuteurs concurrents qui rendent la compréhension du locuteur principal particulièrement difficile. Afin de faciliter la reconnaissance vocale dans ces conditions adverses, plusieurs pré-traitements sont proposés ici. Nous utilisons un format audio spatialisé, le format Ambisonique, adapté à l'analyse de scènes sonores. Dans un premier temps, nous présentons une méthode de localisation des sources sonores basée sur un réseau de neurones convolutif et récurrent. Nous proposons des descripteurs inspirés du vecteur d'intensité acoustique qui améliorent la performance de localisation, notamment dans des situations réelles où plusieurs sources sont présentes et l'antenne de microphones est posée sur une table. La technique de visualisation appelée layerwise relevance propagation (LRP) met en valeur les zones temps-fréquence positivement corrélées avec la localisation prédite par le réseau dans un cas donné. En plus d'être méthodologiquement indispensable, cette analyse permet d'observer que le réseau de neurones exploite principalement les zones dans lesquelles le son direct domine la réverbération et le bruit ambiant. Dans un second temps, nous proposons une méthode pour rehausser la parole du locuteur principal et faciliter sa reconnaissance. Nous nous plaçons dans le cadre de la formation de voies basée sur des masques temps-fréquence estimés par un réseau de neurones. Afin de traiter le cas où plusieurs personnes parlent à un volume similaire, nous utilisons l'information de localisation pour faire un premier rehaussement à large bande dans la direction du locuteur cible. Nous montrons que donner cette information supplémentaire au réseau n'est pas suffisant dans le cas où deux locuteurs sont proches ; en revanche, donner en plus la version rehaussée du locuteur concurrent permet au réseau de renvoyer de meilleurs masques. Ces masques permettent d'en déduire un filtre multicanal qui améliore grandement la reconnaissance vocale. Nous évaluons cet algorithme dans différents environnements, y compris réels, grâce à un moteur de reconnaissance de la parole utilisé comme boîte noire. Dans un dernier temps, nous combinons les systèmes de localisation et de rehaussement et nous évaluons la robustesse du second aux imprécisions du premier sur des exemples réels
This work was conducted in the fast-growing context of hands-free voice command. In domestic environments, smart devices are usually laid in a fixed position, while the human speaker gives orders from anywhere, not necessarily next to the device, or nor even facing it. This adds difficulties compared to the problem of near-field voice command (typically for mobile phones) : strong reverberation, early reflections on furniture around the device, and surrounding noises can degrade the signal. Moreover, other speakers may interfere, which make the understanding of the target speaker quite difficult. In order to facilitate speech recognition in such adverse conditions, several preprocessing methods are introduced here. We use a spatialized audio format suitable for audio scene analysis : the Ambisonic format. We first propose a sound source localization method that relies on a convolutional and recurrent neural network. We define an input feature vector inspired by the acoustic intensity vector which improves the localization performance, in particular in real conditions involving several speakers and a microphone array laid on a table. We exploit the visualization technique called layerwise relevance propagation (LRP) to highlight the time-frequency zones that are correlate positively with the network output. This analysis is of paramount importance to establish the validity of a neural network. In addition, it shows that the neural network essentially relies on time-frequency zones where direct sound dominates reverberation and background noise. We then present a method to enhance the voice of the main speaker and ease its recognition. We adopt a mask-based beamforming framework based on a time-frequency mask estimated by a neural network. To deal with the situation of multiple speakers with similar loudness, we first use a wideband beamformer to enhance the target speaker thanks to the associated localization information. We show that this additional information is not enough for the network when two speakers are close to each other. However, if we also give an enhanced version of the interfering speaker as input to the network, it returns much better masks. The filters generated from those masks greatly improve speech recognition performance. We evaluate this algorithm in various environments, including real ones, with a black-box automatic speech recognition system. Finally, we combine the proposed localization and enhancement systems and evaluate the robustness of the latter to localization errors in real environments
APA, Harvard, Vancouver, ISO, and other styles
24

Wetzel, William C. "Overcoming interferences in plasma source mass spectrometry alternative ionization sources, novel correction methods, and new instrumentation /." [Bloomington, Ind.] : Indiana University, 2006. http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&res_dat=xri:pqdiss&rft_dat=xri:pqdiss:3223057.

Full text
Abstract:
Thesis (Ph. D.)--Indiana University, Dept. of Chemistry, 2006.
"Title from dissertation home page (viewed June 28, 2007)." Source: Dissertation Abstracts International, Volume: 67-06, Section: B, page: 3109. Adviser: Gary M. Hieftje.
APA, Harvard, Vancouver, ISO, and other styles
25

Drouet, Julie. "Séparation des sources de bruit des moteurs Diesel : Application en hi'erarchisation de source et qualit'e sonore." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-01006187.

Full text
Abstract:
Le spectrofiltre est un filtre de Wiener utilisé pour isoler le bruit de combustion du moteur Diesel. Ce filtre est déterminé pour chaque point de fonctionnement et nécessite un traitement important des données. Il est donc difficile de mener des études perceptives sur le bruit de combustion obtenu selon plusieurs réglages moteur. Afin de pallier à cet inconvénient, cette thèse a pour objectif de définir un filtre commun qui puisse synthétiser un bruit de combustion en tout point de fonctionnement. Pour cela, une étude perceptive a montré que la substitution du spectrofiltre conventionnel par un autre filtre de Wiener permet la synthèse d'un bruit de combustion. L'utilisation d'un spectrofiltre commun est donc possible. L'analyse modale expérimentale permet d'estimer le filtre de Wiener à partir de données caractéristiques de la structure du moteur. Après analyse sur un signal synthétique, la méthode ESPRIT apparait la plus appropriée, mais nécessite quelques optimisations pour être adaptée aux particularités des spectrofiltres. Les filtres de Wiener de plusieurs régimes sont estimés selon différentes conditions d'estimation, définies par le critère ESTER. Une évolution fictive de l'amortissement selon le régime moteur est observée, et rattachée au fenêtrage temporel effectué dans le calcul du spectrofiltre. Une expérience perceptive est ensuite menée pour identifier si le critère ESTER permet d'estimer des filtres assez précis pour synthétiser des bruits de combustion similaires aux bruits de combustion conventionnels. Les résultats amènent à concevoir le spectrofiltre obtenu au ralenti comme un bon filtre commun, tant d'un point de vue physique que perceptif.
APA, Harvard, Vancouver, ISO, and other styles
26

Drouet, Julie. "Séparation des sources de bruit des moteurs Diesel : Application en hiérarchisation de source et qualité sonore." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0053/document.

Full text
Abstract:
Le spectrofiltre est un filtre de Wiener utilisé pour isoler le bruit de combustion du moteur Diesel. Ce filtre est déterminé pour chaque point de fonctionnement et nécessite un traitement important des données. Il est donc difficile de mener des études perceptives sur le bruit de combustion obtenu selon plusieurs réglages moteur. Afin de pallier à cet inconvénient, cette thèse a pour objectif de définir un filtre commun qui puisse synthétiser un bruit de combustion en tout point de fonctionnement. Pour cela, une étude perceptive a montré que la substitution du spectrofiltre conventionnel par un autre filtre de Wiener permet la synthèse d’un bruit de combustion. L’utilisation d’un spectrofiltre commun est donc possible. L’analyse modale expérimentale permet d’estimer le filtre de Wiener à partir de données caractéristiques de la structure du moteur. Après analyse sur un signal synthétique, la méthode ESPRIT apparait la plus appropriée, mais nécessite quelques optimisations pour être adaptée aux particularités des spectrofiltres. Les filtres de Wiener de plusieurs régimes sont estimés selon différentes conditions d’estimation, définies par le critère ESTER. Une évolution fictive de l’amortissement selon le régime moteur est observée, et rattachée au fenêtrage temporel effectué dans le calcul du spectrofiltre. Une expérience perceptive est ensuite menée pour identifier si le critère ESTER permet d’estimer des filtres assez précis pour synthétiser des bruits de combustion similaires aux bruits de combustion conventionnels. Les résultats amènent à concevoir le spectrofiltre obtenu au ralenti comme un bon filtre commun, tant d’un point de vue physique que perceptif
The spectrofilter is a Wiener filter used to extract combustion noise. This filter requires an important data processing and is determined in all operating conditions. Thus it is difficult to carry out perceptual studies on combustion noise from various motor adjustments. To overcome this drawback, this PhD dissertation aims to define a common filter which can synthesize a combustion noise in all operating conditions. For this, a perceptual study showed that the substitution of the conventional spectrofilter by another Wiener filter allows the synthesis of a combustion noise. The use of a common spectrofilter is thus possible. The experimental modal analysis allows to estimate the Wiener filter from characteristic data of the engine structure. After studying on a synthetic signal, the ESPRIT method seems to be the most appropriate, but requires some optimizations to be adapted to spectrofilter peculiarities. The Wiener filters of several running speeds are estimated in different estimating conditions, defined by the ESTER criterion. A fictitious damping evolution with the running speed is observed and linked to the temporal windowing applied on the spectrofilter computation. A perceptual experience is then carried out to identify if the ESTER criterion allows to estimate accurately filters to synthesize combustion noises similar to conventional combustion noises. The results lead to conceive the spectrofilter obtained in idling condition as a good common filter, as in a physical point of view that perception
APA, Harvard, Vancouver, ISO, and other styles
27

Camacho, José Carlos. "Musique, drame et thérapie : un processus d'intégration pour les personnes sourdes." Thesis, Toulouse 2, 2014. http://www.theses.fr/2014TOU20067/document.

Full text
Abstract:
L’objet de cet étude est de présenter l’utilisation du jeu comme thérapie musicale et théâtrale (dramathérapie) pour personnes sourdes afin de retrouver le caractère ludique et amusant de la thérapie et aussi pour faciliter leur intégration à l’Université. Ceci est fondamental dans la thérapie et l’exploration du plaisir partagé à travers le jeu, le déroulement expressif et créateur de chaque Sourd et sa participation physique et émotionnelle et ludique au sein du groupe
The object of this study is to present the use of the game as therapy musical and theatrical (dramatherapy) for Deaf people to find the playful and funny character of the therapy and also to facilitate their integration to the University. This is fundamental in the therapy and the exploration of the pleasure shared through the game, the meaning and creative progress of every Deaf person and his physical and emotional and playful participation within the group
APA, Harvard, Vancouver, ISO, and other styles
28

Cook, Shaun P. "Are All Sources Equal? Examining the Roles of Aging and the Frontal Lobes on Multiple Types of Source Memory Using a Repeated-Measures Design." Diss., The University of Arizona, 2006. http://hdl.handle.net/10150/195539.

Full text
Abstract:
This paper reports a series of experiments designed to compare memory for multiple kinds of source information in young and older adults. The older adults in these studies were classified as having well or poorly functioning frontal lobes. In EXPERIMENTS 1-3, three different sources that provided independent cues to item information were examined using a repeated-measures design. In particular, participants' memory for voice source information, spatial source information, and temporal source information was tested in separate blocks. The results indicated that the performance of both young and older adults depended upon the type of source tested: Voice source memory was superior to spatial source and temporal source memory, which did not differ. There was also an age effect that was mediated by frontal functioning. Only the low frontal older adults showed impairments in source memory. High frontal older adults were equivalent to young. In EXPERIMENT 4, sources that provided redundant cues to item information were investigated. Voice sources and spatial sources were perfectly matched during encoding such that Voice A always came from Location 1 and Voice B always came from Location 2. When sources provided redundant information in this manner, young and high frontal older adults improved their spatial source memory by making use of redundant voice information, whereas the low frontal older adults not only performed more poorly than both young and high frontal older adults, but were unable to benefit from the redundancy. No differences in item memory were found. The findings were interpreted in terms of the executive and working memory functions involved in the integration of various contextual elements of an experience with its content.
APA, Harvard, Vancouver, ISO, and other styles
29

Li, Kwan-lok, and 李君樂. "Study of x-ray supernovae and supersoft/quasisoft x-ray sources with an automated source search program." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2011. http://hub.hku.hk/bib/B46084125.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Matthews, James. "News sources and perceptual effects : an analysis of source attribution within news coverage of alleged terrorist plots." Thesis, Bournemouth University, 2010. http://eprints.bournemouth.ac.uk/16207/.

Full text
Abstract:
Studies of source-media relations have tended towards two principal frameworks for analysis: developing a structural approach, where access is determined by the source's position within the dominant hegemony (Hall et al. 1978); or through sociological enquiries, which examine the relationship between journalists and their news sources (Gans 1979; Schlesinger 1990). There is, however, a much smaller body of research that has considered the influence of news sources upon audiences. This thesis develops an audience centric approach to sourcing, in order to understand how journalists may influence audiences' interpretation of a story through the attribution of information to particular types of institutional sources. This issue is considered through the media discourse of Islamist terrorism, to explore the potential for source attribution to influence audiences' perceptions of alleged terrorist plots. The justifications for focusing upon this issue are twofold. First, news coverage of suspected terrorist plots has raised questions over the position and types of sources appearing in reports. Second, news media reporting of terrorism has become synonymous with unofficial sources and leaked information. Accusations have been made, particularly following news of a foiled kidnap plot in January 2007, that government sources had relayed intelligence or operational information about the threat to a select group of journalists. For some, these charges evidence the social and political construction of contemporary terrorism, a condition, which it has been argued, is engineered by elites to make a raft of legal responses politically acceptable to the electorate (Jackson 2006; Mythen and Walklate 2006). This thesis explores source attribution upon audiences' perceptions of terrorism through two stages of empirical research. A content analysis of UK newspaper coverage of five alleged terrorist plots and a media experiment that simulates exposure to three different types of source attribution. The results reveal that veiled references to public institutions were predominant within coverage, however, contrary to conspiratorial approaches to political discourse,government sources were not influential in supporting details of a specific threat.Furthermore, that sourcing may simply arise as a feature of the news narrative to each event. The findings also suggest that sourcing was indicative of a broader shift in the media discourse of terrorism, with more recent coverage seeking to address public concerns over the way official or government sources communicate information about the threat from terrorism. For news audiences, the results show that the more powerful cumulative effects of trust in the media and concern over terrorism undermine any influence source attribution may have upon audiences' perceptions of the credibility of a story reporting an alleged terrorist plot. Moreover, taken together the findings demonstrate that the effect of subtle or nuanced variations in the presentation of media content upon audiences is limited and that the attitudinal and demographic characteristics of audiences serve as more significant determinants of audiences' perceptions of news.
APA, Harvard, Vancouver, ISO, and other styles
31

Meyer-Waarden, Lars. "Les sources d'efficacité des programmes de fidélisation : une étude empirique sur la base d'un panel single source." Pau, 2002. http://www.theses.fr/2002PAUU2010.

Full text
Abstract:
L'objet de la recherche est de contribuer à une meilleure connaissance théorique sur les sources d'efficacité des programmes de fidélisation dans le contexte de la grande distribution. Nous développons deux lignes de réflexion : l'effet sélectif du programme de fidélisation et son impact sur la modification du comportement d'achat. L'étude est conduite sur une période de 36 mois à partir du panel single source BehaviorScan, représentant 300. 000 actes d'achat dans 7 hyper- et supermarchés, qui a été croisé avec les bases de données magasin d'un distributeur généraliste français. Nous concluons à l'aide du modèle Dirichlet-Multinomial que le phénomène de la double pénalité est présent et que les programmes de fidélisation ne changent pas substantiellement les structures de marché. Au niveau désagrégé, l'acte d'achat individuel, des analyses de variance à mesure répétée ainsi que des analyses de survie mettent en évidence que l'effet de la carte de fidélité sur le comportement d'achat est faible, peu durable et surtout sélectif car elle attire en priorité de gros acheteurs du magasin mais pas de la catégorie. Le rôle principal des cartes est alors de sélectionner et d'identifier les meilleurs clients, conduisant ainsi à un meilleur ajustement des ressources
The purpose of this research is to contribute to a better theoretical knowledge about the sources of efficiency in loyalty programs, in the retail sector. We develop two ideas: the selective impact of the loyalty program, and its effect on the modification of purchase behaviour. Our investigation has been carried out for a 36 months period, based on the BehaviorScan single-source panel, covering 300. 000 purchase transactions from 7 hyper-and supermarkets, which has been crossed with the store database of a French retailer. We conclude with the multinomial Dirichlet model that the double jeopardy phenomenon is present and loyalty programs do not substantially change market structures. At an individual level, variance analyses with repeated measures and survival analyses show that the impact of loyalty cards on purchase behaviour is relatively weak, short-term and selective as they primarily attract heavy customers of the store but not of the category. The principal role of loyalty cards is thus to select and identify the best customers, leading therefore to an improved focus of resources
APA, Harvard, Vancouver, ISO, and other styles
32

Picquenot, Adrien. "Introduction and application of a new blind source separation method for extended sources in X-ray astronomy." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASP028.

Full text
Abstract:
Certaines sources étendues, telles que les vestiges de supernovae, présentent en rayons X une remarquable diversité de morphologie que les téléscopes de spectro-imagerie actuels parviennent à détecter avec un exceptionnel niveau de précision. Cependant, les outils d’analyse actuellement utilisés dans l’étude des phénomènes astrophysiques à haute énergie peinent à exploiter pleinement le potentiel de ces données : les méthodes d’analyse standard se concentrent sur l’information spectrale sans exploiter la multiplicité des morphologies ni les corrélations existant entre les dimensions spatiales et spectrales ; pour cette raison, leurs capacités sont souvent limitées, et les mesures de paramètres physiques peuvent être largement contaminées par d’autres composantes.Dans cette thèse, nous explorerons une nouvelle méthode de séparation de source exploitant pleinement les informations spatiales et spectrales contenues dans les données X, et leur corrélation. Nous commencerons par présenter son fonctionnement et les principes mathématiques sur lesquels il repose, puis nous étudierons ses performances sur des modèles de vestiges de supernovae. Nous nous pencherons ensuite sur la vaste question de la quantification des erreurs, domaine encore largement inexploré dans le milieu bouillonnant de l’analyse de données. Enfin, nous appliquerons notre méthode à l’étude de trois problèmes physiques : les asymétries dans la distribution des éléments lourds du vestige Cassiopeia A, les structures filamentaires dans l’émission synchrotron du même vestige, et la contrepartie X des structures filamentaires visibles en optique dans l’amas de galaxies Perseus
Some extended sources, among which we find the supernovae remnants, present an outstanding diversity of morphologies that the current generation of spectro-imaging telescopes can detect with an unprecedented level of details. However, the data analysis tools currently in use in the high energy astrophysics community fail to take full advantage of these data : most of them only focus on the spectral information without using the many spatial specificities or the correlation between the spectral and spatial dimensions. For that reason, the physical parameters that are retrieved are often widely contaminated by other components. In this thesis, we will explore a new blind source separation method exploiting fully both spatial and spectral information with X-ray data, and their correlations. We will begin with an exposition of the mathematical concepts on which the algorithm rely, and particularly on the wavelet transforms. Then, we will benchmark its performances on supernovae remnants models, and we will investigate the vast question of the error bars on non-linear estimators, still largely unanswered yet essential for data analysis and machine learning methods. Finally, we will apply our method to the study of three physical problems : the asymmetries in the heavy elements distribution in the supernova remnant Cassiopeia A, the filamentary structures in the synchrotron of the same remnant and the X-ray counterpart to optical filamentary structures in the Perseus galaxy cluster
APA, Harvard, Vancouver, ISO, and other styles
33

Fritzler, Sven. "Particle sources with high-intensity lasers : a tool for plasma diagnostics and an innovative source for applications." Palaiseau, Ecole polytechnique, 2003. http://www.theses.fr/2003EPXX0056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

D'Silva, Faye I. "Writing from sources: How three undergraduate multilingual writers negotiated elements of source-based writing in an EAP course that used literary and nonliterary source texts." The Ohio State University, 2014. http://rave.ohiolink.edu/etdc/view?acc_num=osu1386765963.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Larouer, Marion. "Les codes de conduite, sources du droit." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES071.

Full text
Abstract:
L’adoption de codes de conduite par de grandes entreprises privées est un phénomène observé dès la fin des années 1980. Les codes de conduite s’intègrent dans un mouvement plus général en faveur de la responsabilité sociale de l’entreprise (RSE). Cette tendance à la moralisation du comportement des entreprises – appelée éthique des affaires – semble provenir des craintes suscitées par leurs activités, notamment quant aux conditions de travail exercées dans les pays en voie de développement.Ces instruments d’origine privée interpellent les juristes au regard de la forme qu’ils revêtent, la régulation des comportements qu’ils instaurent et leur nature éthique. Leurs caractères les attirent irrémédiablement dans le champ juridique. Les positions doctrinales à l’égard des codes de conduite s’avèrent toutefois contrastées. Néanmoins, leur rapport au droit et aux sources du droit est questionné. L’objectif de l’étude est alors d’explorer les voies d’accès des codes aux sources du droit.Dans cette perspective, la conception classique des sources du droit présente, face aux codes de conduite, des limites certaines. En revanche, la catégorie contemporaine du droit souple apparaît plus disposée à les accueillir. L’adéquation entre les codes de conduite et le droit souple se fonde sur les effets juridiques que chacun d’eux est susceptible de produire. L’étude du fonctionnement des codes de conduite permet dès lors de vérifier leurs effets juridiques et de les comprendre comme de véritables sources du droit
Corporate-initiated codes of conduct appeared at the end of the 1980s. They are part of corporate social responsibility (CSR), an effort on the part of corporations to protect their right to operate in a business environment increasingly subject to new norms, especially when it comes to labour conditions in developing countries.Codes of conduct raise several legal questions, most notably with respect to their form, the behaviors they regulate and their ethical nature, generating strong, diverse doctrinal positions. Many call into question the legal nature of such codes and their connection with the sources of law. Therefore, the objective of this research is to explore the complex relationship between codes of conduct and the sources of law. In this light, the traditional conception of the sources of law reveals some shortcomings, whereas the more contemporary soft law approach seems more inclusive. The nexus between soft law and the codes of conduct revolves around the legal effects that each can produce. To that end, the study of how these codes work in practice is essential not only to address their legal effect, but also to see codes of conduct as true sources of law
APA, Harvard, Vancouver, ISO, and other styles
36

Pinson, Samuel. "Caractérisation des fonds marins par la méthode des sources images." Phd thesis, Université de Bretagne occidentale - Brest, 2011. http://tel.archives-ouvertes.fr/tel-00665037.

Full text
Abstract:
Le travail de thèse présenté dans ce mémoire a permis le développement d'une nouvelle méthode de caractérisation des fonds marins : la méthode des sources images. Elle repose sur une modélisation physique de la réflexion des ondes émises par une source omnidirectionnelle sur un milieu stratifié sous l'approximation de Born. Ainsi, chaque réflexion de l'onde sur une interface du milieu stratifié peut être représentée par une source image dont la position spatiale est directement liée à la vitesse des ondes acoustiques dans les strates et aux épaisseurs de celles-ci. La détection des sources images par la migration des signaux enregistrés sur une antenne et l'utilisation d'une fonction de semblance permet alors d'obtenir le profil de célérité d'une structure sédimentaire. La méthode ne nécessite donc l'enregistrement des échos réfléchis sur le fond marin par une antenne d'hydrophones que pour un seul tir de la source. Les principaux avantages de la méthode sont son automatisation, son faible coût de calcul (donc sa rapidité), sa bonne robustesse par rapport au bruit et l'aspect local de l'inversion. Les résultats obtenus avec des données réelles sont très satisfaisants tant avec l'utilisation d'une antenne verticale qu'avec une antenne horizontale. En particulier, l'utilisation de l'antenne horizontale permet d'effectuer des inversions locales répétées le long d'une radiale et ainsi d'obtenir une inversion d'un système stratifié dont la structure varie avec la distance.
APA, Harvard, Vancouver, ISO, and other styles
37

Abdulghani, Mohamad. "Les sources infra-législatives en droit fiscal : analyse d'un désordre normatif." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM1078.

Full text
Abstract:
Cette recherche vise à traiter les sources infra-législatives en droit fiscal et particulièrement l'analyse du désordre normatif qui a lieu au niveau de l'agencement entre les sources infra-législatives. En effet, il convient d'abord de mentionner que la notion des sources est équivoque, et que la liste des sources en droit français n'est pas du droit positif. Un travail de délimitation du champ du travail autant pour des notions fondamentales que pour des critères de validités des normes a été indispensable.Le travail consiste cependant à démontrer que le centre de production des normes en matière fiscale a eu un déplacement vers les sources infra-législatives. La jurisprudence et la doctrine administrative fiscale, qui sont des sources interprétatives, se sont transformées en sources créatrices du droit. Une situation bien étrange vu l'existence du principe de légalité fiscale.Cela conduit à dégager un véritable désordre normatif à l'intérieur du droit fiscal. Ce désordre a été mis en avant par un plan biparti. Il a fallu étudier la position inattendue des sources infra-législatives en matières fiscale avant de traiter leurs positions dans l'ordonnancement juridique fiscal
APA, Harvard, Vancouver, ISO, and other styles
38

Mondor, Luke. "Does source matter? Using ProMED-mail to compare the timeliness of outbreak communications from governmental and nongovernmental sources." Thesis, McGill University, 2012. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=106558.

Full text
Abstract:
Background: Nongovernmental (or informal) information sources have been credited with raising earlier warnings of disease threats than traditional governmental reporting systems, thus facilitating the rapid recognition and response to potential pandemics and emerging disease outbreaks. Despite an increased global reliance on informal reporting systems, little empirical evidence exists to support this assertion. In this project we examined (1) whether the original source of outbreak information (governmental or nongovernmental) was an explanatory factor in the timely reporting of outbreaks, and (2) trends in outbreak communication by governmental and nongovernmental sources. Methods: Using a database of 398 unique human infectious disease outbreaks reported in the World Health Organization's "Disease Outbreak News" from 1996-2009, we identified the source(s) and date of the earliest outbreak communication from ProMED-mail's archives. Negative binomial regression models were used to estimate the effect of reporting source (i.e., governmental or nongovernmental) on the timeliness of outbreak communication. Results: Over the period 1996–2009, we found no statistically significant difference in communication timeliness for outbreaks reported first by nongovernmental sources compared to outbreaks communicated first by governmental sources (IRR=0.95, 95% CI [0.77, 1.18]). We observed a trend towards communicating outbreaks more quickly over time for both governmental and nongovernmental sources, but this trend was statistically significant only for governmental sources (IRR=0.94, 95% CI [0.91, 0.97]). Conclusion: To our knowledge, this study is the first to quantify the timeliness of outbreak communications from governmental and nongovernmental sources over time and across a range of diseases. While we observed no statistically significant differences in reporting speed between these sources, our study was limited to a small sample of WHO-confirmed outbreaks. Further research is therefore needed to build upon our results.
Historique : Comparé aux systèmes de déclaration gouvernementaux traditionnels, les sources d'information non gouvernementales (ou informelles) sont réputées produire des avertissements plus précoces en terme d'éclosion de maladies, facilitant ce faisant la reconnaissance rapide et une réponse prompte aux flambées épidémiques naissantes et aux potentielles pandémies. Malgré un recours accru aux systèmes de déclaration informels, il existe peu de preuves empiriques pour supporter cette affirmation. Dans ce projet, nous avons examiné (1) si la source originale de l'information sur une flambée épidémique (gouvernemental ou non gouvernementale) était un facteur explicatif dans la déclaration précoce de flambées épidémiques et (2) l'évolution des communications sur les flambées épidémiques par les sources gouvernementales et non gouvernementales.Méthodes : En utilisant une base de données comptant 398 flambées épidémiques infectieuses distinctes sélectionnées à partir du « Disease Outbreak News » de l'Organisation Mondiale de la Santé de 1996 à 2009, nous avons identifié la ou les sources et la date de la première communication au sujet de cette flambée épidémique, au moyen des archives de ProMED-mail. Des modèles de régression négative binomiale ont été utilisés pour évaluer les différences et améliorations en terme de déclaration rapide de flambées épidémiques (comparé à la date présumée de leur début), par type de sources.Résultats : Nous n'avons trouvé aucune différence statistiquement significative dans la rapidité des communications au sujet des flambées épidémiques entre celles rapportées en premier par des sources non gouvernementales comparées à celle déclarées en premier par des sources gouvernementales pour la période 1996-2009 (IRR=0.95, 95% CI [0.77, 1.18]). De plus, bien que les deux types de sources rapportent les flambées épidémiques plus rapidement, une amélioration statistiquement significative n'a été notée que pour les sources gouvernementales (IRR=0.94, 95% CI [0.91, 0.97]). Conclusion : À notre connaissance, il s'agit de la première étude à quantifier la rapidité des communications au sujet de flambées épidémiques provenant des sources gouvernementales et non gouvernementales, touchant une période étendue et une variété de maladies. Bien qu'aucune différence statistiquement significative n'a été démontrée entre ces deux types de sources, nos résultats sont limités à un petit échantillon de flambées épidémiques confirmées par l'OMS. D'autres études sont nécessaires pour confirmer ces résultats.
APA, Harvard, Vancouver, ISO, and other styles
39

Placko, Dominique, Thierry Bore, and Tribikram Kundu. "Family of Quantum Sources for Improving Near Field Accuracy in Transducer Modeling by the Distributed Point Source Method." MDPI AG, 2016. http://hdl.handle.net/10150/621954.

Full text
Abstract:
The distributed point source method, or DPSM, developed in the last decade has been used for solving various engineering problems-such as elastic and electromagnetic wave propagation, electrostatic, and fluid flow problems. Based on a semi-analytical formulation, the DPSM solution is generally built by superimposing the point source solutions or Green's functions. However, the DPSM solution can be also obtained by superimposing elemental solutions of volume sources having some source density called the equivalent source density (ESD). In earlier works mostly point sources were used. In this paper the DPSM formulation is modified to introduce a new kind of ESD, replacing the classical single point source by a family of point sources that are referred to as quantum sources. The proposed formulation with these quantum sources do not change the dimension of the global matrix to be inverted to solve the problem when compared with the classical point source-based DPSM formulation. To assess the performance of this new formulation, the ultrasonic field generated by a circular planer transducer was compared with the classical DPSM formulation and analytical solution. The results show a significant improvement in the near field computation.
APA, Harvard, Vancouver, ISO, and other styles
40

Galluzzi, Vincenzo <1987&gt. "Multi-frequency polarimetric study of a complete sample of extragalactic radio sources: radio source populations and cosmological perspectives." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amsdottorato.unibo.it/8650/1/Tesi_PhD_Galluzzi_Vincenzo.pdf.

Full text
Abstract:
The high-frequency (> 20 GHz), bright flux density (> 200 mJy) radio population is dominated by blazars, i.e. compact Doppler-boosted objects, whose emission arises from knot-like synchrotron structures along the relativistic jet. Their polarization properties was so far poorly constrained at high frequency and results in literature are typically biased. Extending the characterization of polarization properties of radio sources to high frequencies provides invaluable information about magnetic fields and plasma in the inner and unresolved regions of relativistic jets. Furthermore, extragalactic radio sources are an important contaminant for the angular power spectrum of CMB (Cosmic Microwave Background) at scales smaller than 30 arcmin, up to 100 GHz: their polarimetry is crucial to search for primordial B-modes, the footprint of inflation. We present the analysis of high sensitivity (rms ~ 0.6 mJy) multi-frequency and multi-epoch polarimetric observations of a complete sample of 104 compact extragalactic radio sources drawn from the faint (> 200 mJy at 20 GHz in total intensity) Planck-ATCA Coeval Observations (PACO) catalogue, performed with the Australia Telescope Compact Array (ATCA) at 7 frequencies, between 2.1 and 38 GHz. We found that polarization spectra of single sources cannot be simply inferred from total intensity ones, as different synchrotron components dominate the different emissions. We distinguish six spectral categories finding different behaviours in polarization fractions and position angles. Multi-epoch variability analysis (from 1.5 up to 10 yr time lags) is also presented. ALMA (Atacama Large Millimetre and sub-millimetre Array) observations extends the analysis up to 100 GHz for a (complete) sub-sample of 32 objects. We still find synchrotron signal at these frequencies with no sign of thermal or dust emissions. We compute number counts in polarization at 20 and 100 GHz to a deeper level than available so far and provide forecasts for forthcoming CMB experiments.
APA, Harvard, Vancouver, ISO, and other styles
41

Liu, Miaomiao. "Actinomycetes Sourced From Unique Environments as a Promising Source of New TB-Active Natural Products." Thesis, Griffith University, 2017. http://hdl.handle.net/10072/366523.

Full text
Abstract:
Tuberculosis (TB) is the leading cause of death from infectious diseases in the world, affecting more than ten million patients each year. However, multi-drug resistance (MDR-TB) threatens progress achieved in TB care and control, and there are few drugs available to treat MDR-TB. Our overall aim was to identify anti-TB natural products from microbes sourced from unique environments. This thesis presents efforts to achieve an effective approach to identify anti-TB microbial natural products with the combination of one strain many compounds (OSMAC) strategy, NMR fingerprint and principal component analysis. The thesis begins with an introduction of TB and the current anti-TB drugs and candidates. It also covers a review on anti-TB natural products from marine microbe and endophyte origin and analysis of their physicochemical properties using Lipinski’s rule of five as well as the ChemGPS tool. As part of a research program aiming to identify anti-TB microbial constituents, a cell-based screening assay was developed to screen 2562 crude extracts. Among the active hits, 46 actinomyces isolated from marine, desert or Traditional Chinese Medicines were selected for further chemical investigation according to their chemical profiles or anti-TB activities. The results are presented in chapters 2 to 7.
Thesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Natural Sciences
Science, Environment, Engineering and Technology
Full Text
APA, Harvard, Vancouver, ISO, and other styles
42

Lopez, Colin. "Développement de sources haute-résolution de particules chargées grâce au contrôle de leur trajectoire par corrélation temps-position." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASP013.

Full text
Abstract:
L’objet de cette thèse consiste en un développement de sources de particules chargées (ions ou électrons) dont la résolution en énergie, position et temps approchent les limites permises par les lois physiques. Le principe est d’utiliser la détection sensible en temps et position pour l’une des deux particules chargées corrélées, produites par photoionisation d’un nuage d’atomes froids, pour corriger en temps réel la trajectoire 3D de la particule partenaire afin d’en maîtriser le plus finement possible les caractéristiques spatio-temporelles. Le projet a pour but de créer, à partir de l’ionisation d’atomes de césium refroidis par laser, un nouveau type de source d’ions et d’électrons permettant une meilleure focalisation des faisceaux. Ce travail permet d’envisager de nouvelles expériences basées sur le contrôle de particules chargées uniques et ainsi de s’affranchir des effets de répulsion coulombienne dégradant les sources actuelles.Le but ultime étant d’arriver à déposer sur une surface un ion ou un électron avec des caractéristiques de vitesse, de position et de temps d’une précision jamais atteinte jusque-là. Des applications évidentes en implantation d’ions sont envisagées (lithographie). Les potentialités de ce dispositif en termes de correction de trajectoire ouvrent la voie d’un contrôle total du temps, de la position et de la vitesse d’arrivée des ions sur la cible. Une augmentation du flux est déjà envisagée, en vue d’application d’imagerie, en améliorant la vitesse de traitement en temps réel des informations temps/position des électrons.Le projet présenté ici s’inscrit désormais dans un projet plus vaste : une source d’ions basée sur ce principe est en cours d’étude avec la société Orsay Physics spécialisée dans la conception et la fabrication de colonnes à faisceaux d’ions focalisés (FIB)
The topic of this thesis is the development of charged particle sources (ions or electrons) whose energy resolution, position and time approach the limits permitted by physic laws. The idea is to use the sensitive detection in time and position for one of the two correlated charged particles produced by the photoionization of an cold atoms cloud, to correct in real time the 3D trajectory of the particle partner to know as thinly as possible its spatiotemporal characteristics. The project aims to create, from the ionization of cesium atoms cooled by laser, a new type of ion or electron source allowing a better beam. We can now consider new experiences based on the unique control of charged particles and thus overpass the Coulomb repulsion effects that degrades the common sources.The ultimate goal is to be able to depose an ion or an electron on a surface with the speed, position and time characteristics never reached. Some applications in ions implantation are expected (lithography). In terms of trajectory correction it could allow a full control of time, position and velocity of ions reaching the target. A further increase of the flow is already considered for purposes of imaging (real-time processing of time-position data). The project presented here is now part of a larger project: an ion source based on this concept is under study with the Orsay Physics Company specialized in the design and manufacture of columns Focused ion beam (FIB)
APA, Harvard, Vancouver, ISO, and other styles
43

Hursky, Paul. "Using ambient noise and sources of opportunity to estimate environment parameters and improve matched field source detection and localization /." Diss., Connect to a 24 p. preview or request complete full text in PDF format. Access restricted to UC campuses, 2001. http://wwwlib.umi.com/cr/ucsd/fullcit?p3000404.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Lundberg, Emelie, and Adrian Sadikovic. "Vem skyddar vi källan från? : En kvalitativ studie om digital säkerhet och källskydd bland svenska journalister." Thesis, Mittuniversitetet, Avdelningen för medie- och kommunikationsvetenskap, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:miun:diva-32885.

Full text
Abstract:
In the digital era, journalists’ source protection is facing new challenges. A big part of the communication between the journalists and their sources is now taking place online, thus exposing it to surveillance, national security interests and erosion of source protection laws. How engaged and interested are swedish journalists regarding these challenges? And what methods do they use to protect their sources in this new era? This study examines the knowledge and interest among swedish journalists regarding digital security and source protection issues, and which methods they use for source protection in the digital age. It also gives a brief introduction to the current laws and legislative proposals that may impact source protection in Sweden. This is done through interviews with journalists from four swedish media editors. Uppdrag granskning, Dagens Nyheter, HD/Sydsvenskan and P4 Västerbotten. Our study shows that the majority of our respondents are interested and engaged in issues regarding digital security and source protection, but the level of actual knowledge varies. Some journalists are so engaged that it affects how they live their private lives outside the newsroom, while others have little or no knowledge regarding the security of their own editorial office. It is also clear that there is a need for journalists to be educated in new secure methods so that they can, in turn, educate their own sources.
APA, Harvard, Vancouver, ISO, and other styles
45

Perotin, Lauréline. "Localisation et rehaussement de sources de parole au format Ambisonique : analyse de scènes sonores pour faciliter la commande vocale." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0124.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de l'essor des assistants vocaux mains libres. Dans un environnement domestique, l'appareil est généralement posé à un endroit fixe, tandis que le locuteur s'adresse à lui depuis diverses positions, sans nécessairement s'appliquer à être proche du dispositif, ni même à lui faire face. Cela ajoute des difificultés majeures par rapport au cas, plus simple, de la commande vocale en champ proche (pour les téléphones portables par exemple) : ici, la réverbération est plus importante ; des réflexions précoces sur les meubles entourant l'appareil peuvent brouiller le signal ; les bruits environnants sont également sources d'interférences. À ceci s'ajoutent de potentiels locuteurs concurrents qui rendent la compréhension du locuteur principal particulièrement difficile. Afin de faciliter la reconnaissance vocale dans ces conditions adverses, plusieurs pré-traitements sont proposés ici. Nous utilisons un format audio spatialisé, le format Ambisonique, adapté à l'analyse de scènes sonores. Dans un premier temps, nous présentons une méthode de localisation des sources sonores basée sur un réseau de neurones convolutif et récurrent. Nous proposons des descripteurs inspirés du vecteur d'intensité acoustique qui améliorent la performance de localisation, notamment dans des situations réelles où plusieurs sources sont présentes et l'antenne de microphones est posée sur une table. La technique de visualisation appelée layerwise relevance propagation (LRP) met en valeur les zones temps-fréquence positivement corrélées avec la localisation prédite par le réseau dans un cas donné. En plus d'être méthodologiquement indispensable, cette analyse permet d'observer que le réseau de neurones exploite principalement les zones dans lesquelles le son direct domine la réverbération et le bruit ambiant. Dans un second temps, nous proposons une méthode pour rehausser la parole du locuteur principal et faciliter sa reconnaissance. Nous nous plaçons dans le cadre de la formation de voies basée sur des masques temps-fréquence estimés par un réseau de neurones. Afin de traiter le cas où plusieurs personnes parlent à un volume similaire, nous utilisons l'information de localisation pour faire un premier rehaussement à large bande dans la direction du locuteur cible. Nous montrons que donner cette information supplémentaire au réseau n'est pas suffisant dans le cas où deux locuteurs sont proches ; en revanche, donner en plus la version rehaussée du locuteur concurrent permet au réseau de renvoyer de meilleurs masques. Ces masques permettent d'en déduire un filtre multicanal qui améliore grandement la reconnaissance vocale. Nous évaluons cet algorithme dans différents environnements, y compris réels, grâce à un moteur de reconnaissance de la parole utilisé comme boîte noire. Dans un dernier temps, nous combinons les systèmes de localisation et de rehaussement et nous évaluons la robustesse du second aux imprécisions du premier sur des exemples réels
This work was conducted in the fast-growing context of hands-free voice command. In domestic environments, smart devices are usually laid in a fixed position, while the human speaker gives orders from anywhere, not necessarily next to the device, or nor even facing it. This adds difficulties compared to the problem of near-field voice command (typically for mobile phones) : strong reverberation, early reflections on furniture around the device, and surrounding noises can degrade the signal. Moreover, other speakers may interfere, which make the understanding of the target speaker quite difficult. In order to facilitate speech recognition in such adverse conditions, several preprocessing methods are introduced here. We use a spatialized audio format suitable for audio scene analysis : the Ambisonic format. We first propose a sound source localization method that relies on a convolutional and recurrent neural network. We define an input feature vector inspired by the acoustic intensity vector which improves the localization performance, in particular in real conditions involving several speakers and a microphone array laid on a table. We exploit the visualization technique called layerwise relevance propagation (LRP) to highlight the time-frequency zones that are correlate positively with the network output. This analysis is of paramount importance to establish the validity of a neural network. In addition, it shows that the neural network essentially relies on time-frequency zones where direct sound dominates reverberation and background noise. We then present a method to enhance the voice of the main speaker and ease its recognition. We adopt a mask-based beamforming framework based on a time-frequency mask estimated by a neural network. To deal with the situation of multiple speakers with similar loudness, we first use a wideband beamformer to enhance the target speaker thanks to the associated localization information. We show that this additional information is not enough for the network when two speakers are close to each other. However, if we also give an enhanced version of the interfering speaker as input to the network, it returns much better masks. The filters generated from those masks greatly improve speech recognition performance. We evaluate this algorithm in various environments, including real ones, with a black-box automatic speech recognition system. Finally, we combine the proposed localization and enhancement systems and evaluate the robustness of the latter to localization errors in real environments
APA, Harvard, Vancouver, ISO, and other styles
46

Costa, Facundo hernan. "Bayesian M/EEG source localization with possible joint skull conductivity estimation." Thesis, Toulouse, INPT, 2017. http://www.theses.fr/2017INPT0016/document.

Full text
Abstract:
Les techniques M/EEG permettent de déterminer les changements de l'activité du cerveau, utiles au diagnostic de pathologies cérébrales, telle que l'épilepsie. Ces techniques consistent à mesurer les potentiels électriques sur le scalp et le champ magnétique autour de la tête. Ces mesures sont reliées à l'activité électrique du cerveau par un modèle linéaire dépendant d'une matrice de mélange liée à un modèle physique. La localisation des sources, ou dipôles, des mesures M/EEG consiste à inverser le modèle physique. Cependant, la non-unicité de la solution (due à la loi fondamentale de physique) et le faible nombre de dipôles rendent le problème inverse mal-posé. Sa résolution requiert une forme de régularisation pour restreindre l'espace de recherche. La littérature compte un nombre important de travaux traitant de ce problème, notamment avec des approches variationnelles. Cette thèse développe des méthodes Bayésiennes pour résoudre des problèmes inverses, avec application au traitement des signaux M/EEG. L'idée principale sous-jacente à ce travail est de contraindre les sources à être parcimonieuses. Cette hypothèse est valide dans plusieurs applications, en particulier pour certaines formes d'épilepsie. Nous développons différents modèles Bayésiens hiérarchiques pour considérer la parcimonie des sources. En théorie, contraindre la parcimonie des sources équivaut à minimiser une fonction de coût pénalisée par la norme l0 de leurs positions. Cependant, la régularisation l0 générant des problèmes NP-complets, l'approximation de cette pseudo-norme par la norme l1 est souvent adoptée. Notre première contribution consiste à combiner les deux normes dans un cadre Bayésien, à l'aide d'une loi a priori Bernoulli-Laplace. Un algorithme Monte Carlo par chaîne de Markov est utilisé pour estimer conjointement les paramètres du modèle et les positions et intensités des sources. La comparaison des résultats, selon plusieurs scenarii, avec ceux obtenus par sLoreta et la régularisation par la norme l1 montre des performances intéressantes, mais au détriment d'un coût de calcul relativement élevé. Notre modèle Bernoulli Laplace résout le problème de localisation des sources pour un instant donné. Cependant, il est admis que l'activité cérébrale a une certaine structure spatio-temporelle. L'exploitation de la dimension temporelle est par conséquent intéressante pour contraindre d'avantage le problème. Notre seconde contribution consiste à formuler un modèle de parcimonie structurée pour exploiter ce phénomène biophysique. Précisément, une distribution Bernoulli-Laplacienne multivariée est proposée comme loi a priori pour les dipôles. Une variable latente est introduite pour traiter la loi a posteriori complexe résultante et un algorithme d'échantillonnage original de type Metropolis Hastings est développé. Les résultats montrent que la technique d'échantillonnage proposée améliore significativement la convergence de la méthode MCMC. Une analyse comparative des résultats a été réalisée entre la méthode proposée, une régularisation par la norme mixte l21, et l'algorithme MSP (Multiple Sparse Priors). De nombreuses expérimentations ont été faites avec des données synthétiques et des données réelles. Les résultats montrent que notre méthode a plusieurs avantages, notamment une meilleure localisation des dipôles. Nos deux précédents algorithmes considèrent que le modèle physique est entièrement connu. Cependant, cela est rarement le cas dans les applications pratiques. Au contraire, la matrice du modèle physique est le résultat de méthodes d'approximation qui conduisent à des incertitudes significatives
M/EEG mechanisms allow determining changes in the brain activity, which is useful in diagnosing brain disorders such as epilepsy. They consist of measuring the electric potential at the scalp and the magnetic field around the head. The measurements are related to the underlying brain activity by a linear model that depends on the lead-field matrix. Localizing the sources, or dipoles, of M/EEG measurements consists of inverting this linear model. However, the non-uniqueness of the solution (due to the fundamental law of physics) and the low number of dipoles make the inverse problem ill-posed. Solving such problem requires some sort of regularization to reduce the search space. The literature abounds of methods and techniques to solve this problem, especially with variational approaches. This thesis develops Bayesian methods to solve ill-posed inverse problems, with application to M/EEG. The main idea underlying this work is to constrain sources to be sparse. This hypothesis is valid in many applications such as certain types of epilepsy. We develop different hierarchical models to account for the sparsity of the sources. Theoretically, enforcing sparsity is equivalent to minimizing a cost function penalized by an l0 pseudo norm of the solution. However, since the l0 regularization leads to NP-hard problems, the l1 approximation is usually preferred. Our first contribution consists of combining the two norms in a Bayesian framework, using a Bernoulli-Laplace prior. A Markov chain Monte Carlo (MCMC) algorithm is used to estimate the parameters of the model jointly with the source location and intensity. Comparing the results, in several scenarios, with those obtained with sLoreta and the weighted l1 norm regularization shows interesting performance, at the price of a higher computational complexity. Our Bernoulli-Laplace model solves the source localization problem at one instant of time. However, it is biophysically well-known that the brain activity follows spatiotemporal patterns. Exploiting the temporal dimension is therefore interesting to further constrain the problem. Our second contribution consists of formulating a structured sparsity model to exploit this biophysical phenomenon. Precisely, a multivariate Bernoulli-Laplacian distribution is proposed as an a priori distribution for the dipole locations. A latent variable is introduced to handle the resulting complex posterior and an original Metropolis-Hastings sampling algorithm is developed. The results show that the proposed sampling technique improves significantly the convergence. A comparative analysis of the results is performed between the proposed model, an l21 mixed norm regularization and the Multiple Sparse Priors (MSP) algorithm. Various experiments are conducted with synthetic and real data. Results show that our model has several advantages including a better recovery of the dipole locations. The previous two algorithms consider a fully known leadfield matrix. However, this is seldom the case in practical applications. Instead, this matrix is the result of approximation methods that lead to significant uncertainties. Our third contribution consists of handling the uncertainty of the lead-field matrix. The proposed method consists in expressing this matrix as a function of the skull conductivity using a polynomial matrix interpolation technique. The conductivity is considered as the main source of uncertainty of the lead-field matrix. Our multivariate Bernoulli-Laplacian model is then extended to estimate the skull conductivity jointly with the brain activity. The resulting model is compared to other methods including the techniques of Vallaghé et al and Guttierez et al. Our method provides results of better quality without requiring knowledge of the active dipole positions and is not limited to a single dipole activation
APA, Harvard, Vancouver, ISO, and other styles
47

Qi, Liqiang. "Measurements of Prompt Gamma Rays Emitted in Fission of ²³⁸U and ²³⁹ Pu Induced by Fast Neutrons from the LICORNE Neutron Source." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS320/document.

Full text
Abstract:
Les spectres des rayons γ prompt de fission sont des données nucléaires importantes pour la physique des réacteurs, en tant qu'entrée pour les calculs de chauffage gamma, puisque l'effet de chauffage gamma peut être sous-estimé jusqu'à ~28% avec les données nucléaires actuelles. De plus, les nouvelles informations sur les rayons γ prompts de fission seront utiles du point de vue de la physique fondamentale, où les résultats peuvent être comparés à de nombreuses prédictions théoriques concurrentes pour affiner les modèles du processus de fission. Les spectres des rayons γ prompts de fission ont été mesurés pour la fission induite par neutrons rapides de ²³⁸U et de ²³⁹Pu, en utilisant des neutrons rapides générés à partir de la source LICORNE. Le dispositif expérimental se composait d'une chambre d'ionisation et de différents types de détecteurs à scintillation, dont les détecteurs LaBr₃ et PARIS phoswich. Une procédure d'analyse, comprenant le unfolding et la simulation de la réponse aux rayons γ dans les détecteurs à scintillation, est mise au point pour extraire le spectre des rayons γ prompts de fission et les caractéristiques spectrales correspondantes. Les résultats expérimentaux sont comparés aux codes de modélisation de fission GEF et FREYA. Cette comparaison révèle que les caractéristiques spectrales sont liées aux conditions énergétiques, aux rendements isotopiques et au moment angulaire des fragments de fission. La dépendance énergétique des caractéristiques spectrales montre que l'émission des rayons γ est tout à fait insensible à l'énergie neutronique incidente. Toutefois, on observe une forte dépendance à l'égard du système fissionnant particulier
Prompt fission γ-ray spectra are important nuclear data for reactor physics, as an input for gamma heating calculations, since the gamma heating effect can be under-estimated by up to ~28% with present nuclear data. Furthermore the new prompt fission γ-ray information will be useful from a fundamental physics point of view, where results can be compared with many competing theoretical predictions to refine models of fission process. Prompt fission γ-ray spectra have been measured for the fast-neutron-induced fission of ²³⁸U and ²³⁹PuPu, using fast neutrons generated from the LICORNE source. The experimental setup consisted of an ionization chamber and different types of scintillation detectors, including LaBr₃ and PARIS phoswich detectors. An analysis procedure, including unfolding and recovering the γ-ray response in the scintillation detectors, is developed to extract the prompt fission γ-ray spectrum and corresponding spectral characteristics. The experimental results are compared to the fission modeling codes GEF and FREYA. This comparison reveals that the spectral characteristics are related to the energetic conditions, isotopic yields and angular momentum of the fission fragments. The energy dependence of the spectral characteristics shows that the prompt γ-rays emission is quite insensitive to the incident neutron energy. However, a strong dependence on the particular fissioning system is observed
APA, Harvard, Vancouver, ISO, and other styles
48

Yaacoub, Charles. "Codage conjoint source-canal pour l'optimisation d'un système de codage distribué de sources vidéo transmises sur un lien sans fil." Phd thesis, Paris, ENST, 2009. https://pastel.hal.science/pastel-00005457.

Full text
Abstract:
Dans cette thèse, nous réalisons en premier lieu une étude comparative qui montre les avantages des turbo-codes non-binaires par rapport aux binaires, dans les domaines du codage canal et de la compression des sources distribuées, et nous implémentons un système de codage distribué vidéo basé sur les turbo-codes quadri-binaires. Nous dérivons ensuite la limite théorique de compression dans le cas du codage source ainsi que dans le cas du codage conjoint source-canal. Cette limite est ensuite utilisée dans le cadre d’une technique d’optimisation inter-couches qui vise à éviter l’usage excessif du canal de retour. Notre système se base alors sur le niveau de mouvement des séquences vidéo et sur l’état du canal de transmission pour déterminer le débit de transmission nécessaire à chaque utilisateur. En se basant sur les résultats obtenus, nous proposons une technique de codage conjoint qui permet d’estimer le débit de transmission de chaque utilisateur ainsi que d’optimiser le choix du paramètre de quantification. Ainsi, nous obtenons un système de codage vidéo distribué avec quantification variable et allocation dynamique du débit. Nous étudions aussi l’influence du codage H. 264 des trames clés sur les performances globales du système. Nous développons ensuite des algorithmes qui permettent de faire varier dynamiquement la taille du GOP en se basant sur les calculs entropiques pour déterminer le débit de compression ainsi que le type de codage de chaque trame, sans le besoin d’un canal de retour. Finalement, nous proposons une nouvelle technique qui vise à optimiser la génération de l’information adjacente au décodeur en utilisant des algorithmes génétiques
In this thesis, we first develop a comparative study between binary and non binary turbo-codes used for channel coding as well as for the compression of distributed sources, and we implement a distributed video coding system based on quadri-binary turbo-codes. We then derive the theoretical compression bounds for the case of source coding as well as for joint source-channel coding. These calculations are then used in a cross-layer approach that aims at reducing the excessive use of the feedback channel. Therefore, our system determines the transmission rate for each user taking into account the amount of motion in the captured video scene as well as the state of the transmission channel. We propose afterwards a coding technique that estimates the transmission rate for each user while optimizing the value of the quantization parameter. As a result, we obtain a distributed video coding system with adaptive quantization and dynamic rate allocation. The influence of H. 264 Intra-coding of key frames on the system's performance is also considered. Based on our theoretical study, we then develop novel algorithms that dynamically adapt the GOP size and determine the coding mode for each frame, without the need for a feedback channel. Finally, a frame fusion approach that aims at improving the side information is proposed, based on genetic algorithms
APA, Harvard, Vancouver, ISO, and other styles
49

Yaacoub, Charles. "Codage conjoint source-canal pour l'optimisation d'un système de codage distribué de sources vidéo transmises sur un lien sans fil." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005457.

Full text
Abstract:
Dans cette thèse, nous réalisons en premier lieu une étude comparative qui montre les avantages des turbo-codes non-binaires par rapport aux binaires, dans les domaines du codage canal et de la compression des sources distribuées, et nous implémentons un système de codage distribué vidéo basé sur les turbo-codes quadri-binaires. Nous dérivons ensuite la limite théorique de compression dans le cas du codage source ainsi que dans le cas du codage conjoint source-canal. Cette limite est ensuite utilisée dans le cadre d'une technique d'optimisation inter-couches qui vise à éviter l'usage excessif du canal de retour. Notre système se base alors sur le niveau de mouvement des séquences vidéo et sur l'état du canal de transmission pour déterminer le débit de transmission nécessaire à chaque utilisateur. En se basant sur les résultats obtenus, nous proposons une technique de codage conjoint qui permet d'estimer le débit de transmission de chaque utilisateur ainsi que d'optimiser le choix du paramètre de quantification. Ainsi, nous obtenons un système de codage vidéo distribué avec quantification variable et allocation dynamique du débit. Nous étudions aussi l'influence du codage H.264 des trames clés sur les performances globales du système. Nous développons ensuite des algorithmes qui permettent de faire varier dynamiquement la taille du GOP en se basant sur les calculs entropiques pour déterminer le débit de compression ainsi que le type de codage de chaque trame, sans le besoin d'un canal de retour. Finalement, nous proposons une nouvelle technique qui vise à optimiser la génération de l'information adjacente au décodeur en utilisant des algorithmes génétiques.
APA, Harvard, Vancouver, ISO, and other styles
50

Vardomskaya, Tamara Nikolaevna. "Sources of Subjectivity." Thesis, The University of Chicago, 2018. http://pqdtopen.proquest.com/#viewpdf?dispub=10812973.

Full text
Abstract:

Subjectivity is the phenomenon of the apparent truth of a predicate depending on a perspective of evaluation, such that one person may sincerely assert a proposition p while another may sincerely assert not-p. Among the numerous analyses of the semantics of subjective predicates (Lasersohn 2005, Stojanovic 2007, Stephenson 2007, MacFarlane 2014, Barker 2002, a.o.), few consider what makes them differ from objective ones: what makes delicious allow faultless disagreement while wooden or red do not? Assumptions that subjective and objective predicates differ In their semantics (do not have truth conditions as per expressivism, have another index or argument as per relativism or contextualism) ignore the fact that the same predicate may be subjective in a context where it is loosely defined and objective in a context where it is stringently defined. E.g. the truth of good figure skater is objective to trained figure skating judges but subjective to casual TV watchers.

I provide a relatively theory-neutral analysis of what makes subjective predicates what they are. I argue that objective predicates are precisely those for which there is a reliable consensus of what evidence matters (to distinguish from a reliable consensus as to whether propositions containing them are true: we do not know whether there is life on other planets, but we know what it would take to prove it). For subjective predicates, and propositions containing them, there is no reliable and socially enforced consensus as to what evidence matters, and how much, and what does not, and for some predicates, there cannot be. Thus, speakers are allowed, in a pragmatic context, to perceive the evidence differently (to have different taste perceptions due to genetic differences in smell receptors) or to classify it differently (looking at a painting, to judge whether it is excellent or poor based on differing prior expertise in painting). If we allow differing perceptions or different categorizations to be valid, we have a subjective predicate.

As a follow-up, I explain the selection criteria of find (NP ) (Predicate) - `I find the soup disgusting/wonderful’ - which is known (Saebo2009 a.o.) to select for subjective constructions. I argue that find actually selects for direct experience of its object, as was proposed by Stephenson (2007), and I address subsequent criticisms of that analysis and extend it to modal expressions such as `I find the Cubs winning unlikely,’ which had not been previously considered in the literature. I conclude by showing how my analysis fits into different theories (expressivism, relativism, contextualism, metalinguistic negotiation) by providing them with clearer selection criteria for not only what a subjective predicate is, but why it is so.

APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography