Academic literature on the topic 'Bruit artificiel'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Bruit artificiel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Bruit artificiel"

1

Boué, Pierre, and Anne Paul. "Imagerie sismique par corrélation de bruit ambiant : du laboratoire à l’échelle globale." Reflets de la physique, no. 64 (January 2020): 12–16. http://dx.doi.org/10.1051/refdp/202064012.

Full text
Abstract:
L’énergie sismique libérée par une source naturelle ou artificielle est habituellement utilisée pour éclairer la structure interne de la Terre. Aujourd’hui, de nouvelles méthodes permettent de se passer de ces sources conventionnelles via l'utilisation du bruit sismique ambiant qui, après corrélation de longs enregistrements, transforme virtuellement chaque récepteur en source. Cette méthode d’imagerie du sous-sol est également répétable dans le temps, donnant ainsi accès à une multitude d’applications pour la surveillance des structures géologiques. Cet article présente le principe de l’interférométrie sismique par corrélation du bruit ambiant à travers différents exemples, de l’échelle du laboratoire à l’échelle globale.
APA, Harvard, Vancouver, ISO, and other styles
2

Kassühlke, Rudolph. "Gedanken zur Übersetzung poetischer Bibeltexte." Meta 32, no. 1 (September 30, 2002): 76–84. http://dx.doi.org/10.7202/003284ar.

Full text
Abstract:
Résumé Depuis une vingtaine d'années, la science de la traduction s'est certes développée, mais, jusqu'à maintenant, elle n'a traité que de façon marginale les problèmes relatifs à la traduction poétique. Cela tient en partie au fait que l'on manque d'une définition généralement valable (non seulement dans le monde occidental, mais aussi dans les autres parties du monde) de ce qui donne à un texte son caractère poétique. Ainsi, dans le cas de l'Ancien Testament, les études concernant les passages poétiques sont contradictoires (les unes mettant l'accent sur le rythme, mais avec des conceptions qui divergent selon les spécialistes, d'autres le mettant sur le parallélisme). Le traducteur ne peut évidemment pas consulter les auteurs ou les premiers lecteurs de ces textes pour en savoir plus. Il se trouve seul face à ce qui lui apparaît comme un puzzle dont certaines pièces feraient défaut. Il en est réduit à prendre lui-même des décisions de trois ordres, en répondant aux questions suivantes : 1. quelle était la fonction de la forme poétique du texte à traduire ? 2. quel type de traduction va-t-on adopter d'une façon générale ? 3. comment va-t-on rendre adéquatement la fonction du texte source en tenant compte du type de traduction choisi ? Par des exemples empruntés à la récente version allemande Die Gute Nachricht , dont il fut l'un des principaux traducteurs, l'auteur nous montre comment il est possible de résoudre ces questions. Dans une version mettant l'accent sur l'équivalence fonctionnelle, destinée à un usage général et non spécifiquement liturgique, il ne convenait pas de recourir à un mètre régulier, avec des rimes, comme dans la plupart des chants, pour rendre Psaumes et prières bibliques (ce qui leur aurait conféré un caractère figé et artificiel). En allemand, on a opté pour des lignes pouvant être dites d'une seule respiration (8 à 11 syllabes, au maximum 13), avec des accentuations rythmiques bien marquées. À propos du livre de Job, on s'est souvenu du caractère mnémotechnique de la poésie didactique, mais en étant conscient du fait qu 'une forme trop rigide lasserait rapidement le lecteur de trente-huit chapitres de poésie. On a donc choisi des vers blancs, sans rimes, on a recherché des métaphores et expressions idiomatiques équivalentes (mais non identiques) par rapport à celles de l'hébreu, on a usé d'allitérations et d'assonances. Pour les Proverbes, on s'est inspiré de la forme des aphorismes modernes. Dans le Cantique, les formes métriques ont varié selon les circonstances rapportées. Quant aux passages poétiques des prophètes, il ne suffit pas de les disposer en stiques pour conserver ce caractère poétique (illusion partagée par la plupart des versions modernes). Il est préférable, en raison de leur fonction particulière, de les imprimer comme de la prose, mais en donnant un caractère rythmé à cette prose et en préservant ses métaphores, jeux de mots, etc. Certains de ces passages ont la forme de la complainte, mais la fonction de l'accusation, et il ne faudra pas l'oublier dans la traduction. Un bon exemple d'emploi d'assonances, évoquant le bruit de la mer, nous est présenté à propos d'Esaïe 17.12-14. Dans une dernière remarque, l'auteur avertit ses lecteurs que les solutions valables en allemand ne sauraient être copiées servilement dans d'autres langues. Elles visent essentiellement à stimuler la réflexion, afin que chacun puisse trouver ses propres solutions, valables dans sa langue.
APA, Harvard, Vancouver, ISO, and other styles
3

Monnet, Philippe, Ghislaine Journot, and Rémi Petitfour. "Risque bruit pour salarié portant un casque audio, oreille artificielle." Archives des Maladies Professionnelles et de l'Environnement 81, no. 5 (October 2020): 680. http://dx.doi.org/10.1016/j.admp.2020.03.655.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Grandvalet, Yves. "Injection de bruit adaptative pour la détermination de variables pertinentes." Revue d'intelligence artificielle 15, no. 3-4 (December 1, 2001): 351–71. http://dx.doi.org/10.3166/ria.15.351-371.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Sayed Mouchaweh, Moamar, Patrice Billaudel, and Gérard Villermain Lecolier. "Elimination du bruit et détection des zones de haute densité." Revue d'intelligence artificielle 16, no. 3 (June 1, 2002): 279–306. http://dx.doi.org/10.3166/ria.16.279-306.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Lebreuilly, G., L. Briançon, and P. Miche. "Bruit généré par la cavitation : modélisation de bruit de bulles sur un profil bidimensionnel, et reconnaissance du type de cavitation par réseaux de neurones artificiels." La Houille Blanche, no. 4-5 (June 1997): 129–34. http://dx.doi.org/10.1051/lhb/1997045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Wagner, Gert G. "Polit-ökonomische Aspekte des Berichts zur Lage der Verbraucher:innen." Wirtschaftsdienst 101, no. 6 (June 2021): 473–80. http://dx.doi.org/10.1007/s10273-021-2944-z.

Full text
Abstract:
ZusammenfassungDer Sachverständigenrat für Verbraucherfragen hat erstmals ein breit angelegtes Gutachten zur Lage der Verbraucher:innen in Deutschland vorgelegt. Gert G. Wagner, Mitglied im Sachverständigenrat für Verbraucherfragen, stellt aus seiner persönlichen Sicht ausgewählte Analysen, Ergebnisse und Empfehlungen vor. Über das Gutachten hinausgehend wird auch auf relevante Ereignisse hingewiesen, die nach Abschluss des Gutachtens stattfanden: die Vorlage des EU-Verordnungsvorschlags „Artificial Intelligence Act“, das Klimaschutz-Urteil des Bundesverfassungsgerichts und der Gesetzentwurf zum autonomen Fahren.
APA, Harvard, Vancouver, ISO, and other styles
8

Mohamed, Shakir, Marie-Therese Png, and William Isaac. "Decolonial AI: Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence." Philosophy & Technology 33, no. 4 (July 12, 2020): 659–84. http://dx.doi.org/10.1007/s13347-020-00405-8.

Full text
Abstract:
Abstract This paper explores the important role of critical science, and in particular of post-colonial and decolonial theories, in understanding and shaping the ongoing advances in artificial intelligence. Artificial intelligence (AI) is viewed as amongst the technological advances that will reshape modern societies and their relations. While the design and deployment of systems that continually adapt holds the promise of far-reaching positive change, they simultaneously pose significant risks, especially to already vulnerable peoples. Values and power are central to this discussion. Decolonial theories use historical hindsight to explain patterns of power that shape our intellectual, political, economic, and social world. By embedding a decolonial critical approach within its technical practice, AI communities can develop foresight and tactics that can better align research and technology development with established ethical principles, centring vulnerable peoples who continue to bear the brunt of negative impacts of innovation and scientific progress. We highlight problematic applications that are instances of coloniality, and using a decolonial lens, submit three tactics that can form a decolonial field of artificial intelligence: creating a critical technical practice of AI, seeking reverse tutelage and reverse pedagogies, and the renewal of affective and political communities. The years ahead will usher in a wave of new scientific breakthroughs and technologies driven by AI research, making it incumbent upon AI communities to strengthen the social contract through ethical foresight and the multiplicity of intellectual perspectives available to us, ultimately supporting future technologies that enable greater well-being, with the goal of beneficence and justice for all.
APA, Harvard, Vancouver, ISO, and other styles
9

Sumara, Konrad. "Production and decays of hyperons in p+p reactions measured with HADES." EPJ Web of Conferences 291 (2024): 05008. http://dx.doi.org/10.1051/epjconf/202429105008.

Full text
Abstract:
Abstract. Preliminary results of inclusive σ+(1385) production in p + p reactions at Ebeam = 4.5 GeV and Λ(1520) in p + p and p + Nb at Ebeam = 3.5 GeV are presented. Both measurements were performed by the HADES ("High Acceptance Di-Electron Spectrometer") experiment at FAIR/GSI. The analysis consisted of multiple steps including track reconstruction, particle identification and the reconstruction of the hyperon signal from their hadronic decays Λ(1520) → Λπ+π− and σ+(1385) → Λπ+. The main part of the analysis, which is signal/background classification, was performed utilizing Machine Learning methods. The employed method relied on a data-driven approach called “Classification Without Labels" and the Multilayer Perceptron style Artificial Neural Networks. The analysis resulted in reconstruction of the resonance distributions for both σ+(1385) and Λ(1520), and allowed for the extraction of parameters of the relativistic Breit-Wigner distributions.
APA, Harvard, Vancouver, ISO, and other styles
10

Le Guillou, G., P. Malvache, S. Himbaut, and H. Pham. "Application de l'intelligence artificielle au projet de systeme de detection et de diagnostic base sur l'analyse des bruits." Progress in Nuclear Energy 15 (January 1985): 889–96. http://dx.doi.org/10.1016/0149-1970(85)90123-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Bruit artificiel"

1

Ajayi, Idowu Iseoluwa. "Enhanced Physical Layer Security through Frequency and Spatial Diversity." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS227.

Full text
Abstract:
La sécurité de la couche physique (PLS) est un paradigme émergent qui se concentre sur l'utilisation des propriétés de la communication sans fil, telles que le bruit, l'évanouissement, la dispersion, l'interférence, la diversité, etc. pour assurer la sécurité entre les utilisateurs légitimes en présence d'un espion. Comme le PLS utilise des techniques de traitement du signal et de codage, il intervient au niveau de la couche physique et peut donc garantir le secret quelle que soit la puissance de calcul de l'espion. Cela en fait une approche intéressante pour compléter la cryptographie traditionnelle dont le principe de sécurité est basé sur la dureté informatique de l'algorithme de cryptage qui ne peut pas être facilement cassé par un espion. En outre, les récents progrès rapides des technologies de communication sans fil ont permis l'émergence et l'adoption de technologies telles que l'internet des objets, les communications ultra-fiables et à faible latence, les communications massives de type machine, les véhicules aériens sans pilote, etc. La plupart de ces technologies sont décentralisées, limitées en ressources de calcul et de puissance, et sensibles aux délais. La plupart de ces technologies sont décentralisées, limitées en ressources de calcul et de puissance, et sensibles aux délais. Cela fait du PLS une alternative très intéressante pour assurer la sécurité dans ces technologies. À cette fin, dans cette thèse, nous étudions les limites de la mise en œuvre pratique de la PLS et proposons des solutions pour relever ces défis. Tout d'abord, nous étudions le défi de l'efficacité énergétique de la PLS par l'injection de bruit artificiel (AN) dans un contexte massif d'entrées multiples et de sorties multiples (MIMO). La grande matrice de précodage dans le contexte MIMO massif contribue également à un signal d'émission avec un rapport élevé entre la puissance de crête et la puissance moyenne (PAPR). Cela nous a incités à proposer un nouvel algorithme, appelé PAPR-Aware-Secure-mMIMO. Dans ce schéma, les informations instantanées sur l'état du canal (CSI) sont utilisées pour concevoir un AN tenant compte du PAPR qui assure simultanément la sécurité tout en réduisant le PAPR. Ensuite, nous considérons le PLS par adaptation du canal. Ces schémas PLS dépendent de la précision de la CSI instantanée et sont inefficaces lorsque la CSI est imprécise. Toutefois, la CSI peut être inexacte dans la pratique en raison de facteurs tels qu'un retour d'information bruyant, une CSI périmée, etc. Pour résoudre ce problème, nous commençons par proposer un schéma PLS qui utilise le précodage et la diversité pour fournir le PLS. Nous proposons ensuite un réseau neuronal autoencodeur peu complexe pour débruiter la CSI imparfaite et obtenir des performances PLS optimales. Les modèles d'autoencodeur proposés sont appelés respectivement DenoiseSecNet et HybDenoiseSecNet. Enfin, nous étudions les performances de la PLS dans le cas d'une signalisation à alphabet fini. Les signaux gaussiens ont une grande complexité de détection parce qu'ils prennent un continuum de valeurs et ont des amplitudes non limitées. Dans la pratique, on utilise des entrées de canal discrètes parce qu'elles permettent de maintenir une puissance de transmission de crête et une complexité de réception modérées. Cependant, elles introduisent des contraintes qui affectent de manière significative la performance du PLS, d'où la contribution de cette thèse. Nous proposons d'utiliser des clés dynamiques pour partitionner les espaces de modulation de manière à ce qu'ils profitent à un récepteur légitime et non à un espion. Ces clés sont basées sur le canal principal indépendant et leur utilisation pour la partition conduit à des régions de décision plus grandes pour le récepteur prévu et plus petites pour l'espion. Ce système est appelé modulation partitionnée par index (IPM)
Physical layer security (PLS) is an emerging paradigm that focuses on using the properties of wireless communication, such as noise, fading, dispersion, interference, diversity, etc., to provide security between legitimate users in the presence of an eavesdropper. Since PLS uses signal processing and coding techniques, it takes place at the physical layer and hence can guarantee secrecy irrespective of the computational power of the eavesdropper. This makes it an interesting approach to complement legacy cryptography whose security premise is based on the computational hardness of the encryption algorithm that cannot be easily broken by an eavesdropper. The advancements in quantum computing has however shown that attackers have access to super computers and relying on only encryption will not be enough. In addition, the recent rapid advancement in wireless communication technologies has seen the emergence and adoption of technologies such as Internet of Things, Ultra-Reliable and Low Latency Communication, massive Machine-Type Communication, Unmanned Aerial Vehicles, etc. Most of these technologies are decentralized, limited in computational and power resources, and delay sensitive. This makes PLS a very interesting alternative to provide security in such technologies. To this end, in this thesis, we study the limitations to the practical implementation of PLS and propose solutions to address these challenges. First, we investigate the energy efficiency challenge of PLS by artificial noise (AN) injection in massive Multiple-Input Multiple-Output (MIMO) context. The large precoding matrix in massive MIMO also contributes to a transmit signal with high Peak-to-Average Power Ratio (PAPR). This motivated us to proposed a novel algorithm , referred to as PAPR-Aware-Secure-mMIMO. In this scheme, instantaneous Channel State Information (CSI) is used to design a PAPR-aware AN that simultaneously provides security while reducing the PAPR. This leads to energy efficient secure massive MIMO. The performance is measured in terms of secrecy capacity, Symbol Error Rate (SER), PAPR, and Secrecy Energy Efficiency (SEE). Next, we consider PLS by channel adaptation. These PLS schemes depend on the accuracy of the instantaneous CSI and are ineffective when the CSI is inaccurate. However, CSI could be inaccurate in practice due to such factors as noisy CSI feedback, outdated CSI, etc. To address this, we commence by proposing a PLS scheme that uses precoding and diversity to provide PLS. We then study the impact of imperfect CSI on the PLS performance and conclude with a proposal of a low-complexity autoencoder neural network to denoise the imperfect CSI and give optimal PLS performance. The proposed autoencoder models are referred to as DenoiseSecNet and HybDenoiseSecNet respectively. The performance is measured in terms of secrecy capacity and Bit Error Rate (BER). Finally, we study the performance of PLS under finite-alphabet signaling. Many works model performance assuming that the channel inputs are Gaussian distributed. However, Gaussian signals have high detection complexity because they take a continuum of values and have unbounded amplitudes. In practice, discrete channel inputs are used because they help to maintain moderate peak transmission power and receiver complexity. However, they introduce constraints that significantly affect PLS performance, hence, the related contribution in this thesis. We propose the use of dynamic keys to partition modulation spaces in such a way that it benefits a legitimate receiver and not the eavesdropper. This keys are based on the independent main channel and using them to partition leads to larger decision regions for the intended receiver but smaller ones for the Eavesdropper. The scheme is referred to as Index Partitioned Modulation (IPM). The performance is measured in terms of secrecy capacity, mutual information and BER
APA, Harvard, Vancouver, ISO, and other styles
2

Bayle, Jean-Baptiste. "Simulation and Data Analysis for LISA : Instrumental Modeling, Time-Delay Interferometry, Noise-Reduction Permormance Study, and Discrimination of Transient Gravitational Signals." Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7123.

Full text
Abstract:
Laser Interferometer Space Antenna est une mission de l'Agence Spatiale Européenne visant à mesurer les ondes gravitationnelles dans le domaine millimétrique. Trois satellites en formation triangulaire autour du Soleil s'échangent des faisceaux lasers. Les variations de distances entre masses d'épreuve, dues aux ondes gravitationnelles, sont mesurées au picomètre près. Plusieurs algorithmes de réduction des bruits instrumentaux qui contaminent les mesures sont utilisés avant l'extraction des signaux gravitationnels.Afin d'évaluer la performance de ces algorithmes, nous étudions la manière dont les bruits instrumentaux apparaissent dans les mesures, ainsi que leurs résidus après calibration. Un outil de simulation numérique flexible, destiné à générer les mesures de manière réaliste, permet de valider ces résultats. En effet, LISANode propage les séries temporelles de bruit entre les satellites et sur les bancs optiques, jusqu'aux phasemètres et aux ordinateurs embarqués. Il calcule aussi la réponse aux ondes gravitationnelles. Par ailleurs, LISANode permet de générer les combinaisons Time-Delay Interferometry exemptes de bruit laser, ainsi que la calibration pour les bruits d'horloge.Malheureusement, ces bruits ne disparaissent pas totalement si l'on tient compte des imperfections instrumentales et numériques. Nous étudions en particulier l'impact de la déformation de la constellation, ainsi que du traitement des données en vol. Nous modélisons le couplage déformation-filtrage et proposons une technique permettant de réduire cet effet. En outre, nous proposons une méthode de calibration exacte des bruits d'horloge. Les simulations permettent de valider ces résultats, et confirment la possibilité de réduire les bruits dominants aux niveaux requis.Nous considérons aussi les techniques d'apprentissage automatique pour discriminer les artéfacts instrumentaux et les signaux gravitationnels courts. Une étude analytique montre un couplage différemment dans les mesures, et les premières expériences suggèrent que certains réseaux de neurones peuvent distinguer ces deux types de signaux
The Laser Interferometer Space Antenna is a European Space Agency mission that aims to measure gravitational waves in the millihertz range. Three spacecraft are placed in a quasi-equilateral triangular formation whose barycenter trails the Earth on its heliocentric orbit. Laser beams are exchanged to monitor pico-metric variations between the test masses due to gravitational waves. Because various instrumental noise sources couple to the measurements, several data processing techniques are used to reduce them before we can extract gravitational-wave signals.To study these noise-reduction algorithms, we propose a realistic instrumental model. We investigate how the main noise sources appear in the measurements and work out their residuals in almost noise-free combinations. To validate these results, we develop a flexible numerical simulation tool that aims to generate realistic measurements: LISANode propagates noise time series between the spacecraft and in the optical benches, all the way down to the phasemeters and the on-board computers. It also computes the response to gravitational waves. LISANode is capable of executing the main noise-reduction algorithms, including the computation of Time-Delay Interferometry laser noise-free combinations, as well as clock-calibrated combinations.As we account for instrumental and numerical imperfections, noises do not exactly vanish in the final combinations. In particular, we study the performance hit of the constellation flexing and the on-board data processing on the laser-noise reduction. We model the flexing-filtering coupling and propose a technique to mitigate this effect. Moreover, we derive exact clock-noise calibration expressions. Simulations are used to validate these results and confirm that the dominant sources of noise can be reduced to the required levels.We also investigate machine-learning techniques to discriminate between instrumental glitches and transient gravitational signals. Analytic studies show that both appear differently in noise-free combinations and experiments suggest that some neural networks are capable of distinguishing between them
APA, Harvard, Vancouver, ISO, and other styles
3

Boyer, Marc. "Induction de régularités dans une base de connaissances : application au phénomène bruit / gêne et ses extensions." Toulouse, ENSAE, 2001. http://www.theses.fr/2001ESAE0017.

Full text
Abstract:
L'application majeure de ces travaux est le phénomène, souvent incomplètement décrit, de la gêne causée par le bruit des aéronefs. Dans un premier temps, nous développons donc un état de l'art sur le bruit décrivant ses différentes facettes et la diversité des approches scientifiques et techniques (acoustique, psycho-acoustique, physiologie, psycho-sociologie, réglementation, législation. . . ). La nécessité d'un modèle objectif du concept de gêne nous a conduit à réaliser un premier protocole permettant de calibrer l'ensemble des paramètres expérimentaux, de reconsidérer la gêne en la concevant en tant que mécanisme de dégradation de performances cognitives et de poser le problème de la corrélation sémantique entre un phénomène artificiel et les réactions qu'il induit sur un sujet humain. La deuxième partie des recherches a porté sur deux axes : une démarche théorique d'induction de régularités : modèle algébrique d'Analyse Formelle de Règles (AFR) et comparaison avec la PLI ( Programmation Logique Inductive) ; la conception d'un nouveau protocole de mesure de variations de performances cognitives fondé sur une approche cognitive de la gêne ; l'ensemble s'appuyant sur une analyse exhaustive des composantes du bruit. Par ailleurs, les modules informatiques correspondants ont été développés en programmation logique avec contraintes : interface, algorithmes d'évolution de treillis conceptuel, AFR.
APA, Harvard, Vancouver, ISO, and other styles
4

Joannides, Marc. "Navigation intégrée d'un engin sous-marin remorqué. Filtrage non-linéaire des systèmes sans bruit d'observation et/ou mesures parfaites." Aix-Marseille 1, 1997. http://www.theses.fr/1997AIX11005.

Full text
Abstract:
Dans la premiere partie de cette these, nous considerons le probleme de l'estimation de la trajectoire d'un engin sous-marin remorque, en se basant sur deux sources d'information differentes: des mesures precises d'acceleration de l'engin (ins) et des mesures de position du navire de surface (gps). Les mesures ins restituent fidelement les hautes frequences du mouvement de l'engin, mais derivent avec le temps. Nous utilisons l'information gps, fiable a long terme, pour recaler le mouvement moyen de l'engin. Nous introduisons un modele numerique du systeme cable-engin pour transferer l'information de positionnement depuis la surface jusqu'a l'engin, et nous proposons un estimateur hybride de sa trajectoire. Nous nous interessons ensuite au probleme de filtrage des processus de diffusion, dans le cas ou l'on dispose d'observations non-bruitees, en temps discret. Ce probleme est singulier car la loi conditionnelle est supportee a chaque instant par un ensemble de niveau de la fonction d'observation, qui est en general de mesure nulle (pour la mesure de lebesgue) dans l'espace d'etat. Dans le cas ou la valeur observee est reguliere, nous obtenons une expression explicite pour la densite de la loi conditionnelle, par rapport a la mesure canonique sur l'ensemble de niveau. Ce resultat est d'abord obtenue par une approche directe. Nous introduisons ensuite une approche asymptotique qui permet d'aborder le cas des valeurs singulieres. La methode ainsi developpee peut etre adaptee pour resoudre un probleme voisin en statistique des processus: il s'agit de l'asymptotique petit bruit de l'estimateur bayesien dans le cas non identifiable, lorsque l'observation est un signal deterministe perturbe. Nous donnons une expression explicite pour la densite de la loi limite, lorsque l'ensemble des points minimum de l'information de kullback-leibler est une sous-variete de l'espace des parametres
APA, Harvard, Vancouver, ISO, and other styles
5

Awadallah, Ayman Georges. "Hydro-climatologie globale pour la prévision des crues du Nil au moyen de fonctions de transfert avec bruit et de réseaux de neurones artificiels." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape8/PQDD_0017/NQ48877.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Damoiseaux, Jean-Luc. "Un environnement pour la représentation et le traitement de phénomènes acoustiques : application à la caractérisation de bruits sous-marins." Avignon, 1991. http://www.theses.fr/1991AVIG0101.

Full text
Abstract:
Les travaux presentes ont consiste a developper un environnement sous prolog ii#+ facilitant l'acquisition, la representation et le traitement des connaissances necessaires a la reconnaissance automatique de bruits sous-marins. Cet environnement utilise des techniques appartenant a des domaines scientifiques aussi differents que le traitement du signal, la reconnaissance de formes, le traitement d'images et l'intelligence artificielle. En outre, le formalisme introduit autorise une interaction naturelle des connaissances sans discontinuites depuis le signal sonore jusqu'aux niveaux symboliques les plus eloignes du phenomene physique. La souplesse des outils autorise, de maniere indeterministe, diverses parametrisations d'une meme zone de signal afin d'adapter notre representation en temps et en frequence a la nature des sons etudies. Nous definissons ensuite, a partir de ces parametres initiaux, des attributs complexes plus aptes a decrire les phenomenes acoustiques rencontres. Cependant, le mauvais rapport information/bruit ne permet pas toujours aux predicats de reconnaissance de formes de mesurer et de symboliser correctement l'evolution temporelle de ces parametres. Aussi, nous avons defini et integre des outils de traitements d'images qui ameliorent localement ce rapport information/bruit avant l'extraction des parametres critiques. Enfin, un ensemble de predicats de controle et de fonctions arithmetiques et logiques a ete cree pour faciliter l'expression de connaissances diverses et la definition de multiples strategies de reconnaissance. Sur des bruiteurs enregistres dans des conditions reelles de navigation (presence d'un bruit ambiant important), cet environnement nous a permis d'etudier des emissions sonars, des bruits mecaniques de rotation, certains bruits hydrodynamiques, et de mettre en evidence une nouvelle composante du bruit de cavitation d'helice
APA, Harvard, Vancouver, ISO, and other styles
7

Buniet, Laurent. "Traitement automatique de la parole en milieu bruité : étude de modèles connexionnistes statiques et dynamiques." Phd thesis, Université Henri Poincaré - Nancy I, 1997. http://tel.archives-ouvertes.fr/tel-00629285.

Full text
Abstract:
Les recherches effectuées dans le domaine de la reconnaissance automatique de la parole (RAP) permettent d'envisager un éventail toujours plus large d'applications industrielles ou grand public. Cependant, la compréhension des mécanismes de production et de reconnaissance de la parole par l'Homme ne suffit pas en elle-même pour élaborer effectivement les dites applications. Les conditions de laboratoire qui ont prévalues lors de l'enregistrement des premiers corpus de parole utilisés à des fins de recherches sont en effet très différentes des conditions réelles que l'on rencontre généralement dans les lieux de travail ou de vie. Ayant le plus souvent été enregistrés en chambre anéchoïde, ces corpus ne permettaient pas plus d'appréhender les dégradations que le milieu peut engendrer sur le signal de parole que de constater quelles pouvaient être les modifications provoquées sur ce signal par un locuteur essayant de s'adapter à son milieu. Certaines des recherches actuelles en RAP essaient donc d'améliorer les capacités de résistance au bruit des systèmes existants. Pour ce faire, il est possible d'utiliser un système d'abord défini pour la reconnaissance de la parole non bruitée en lui ajoutant un mécanisme lui permettant de s'adapter à certaines conditions de bruit. Il est également possible de définir un système ab-nihilo qui soit tout aussi bien adapté aux conditions non bruitées qu'aux conditions bruitées. Le sujet de cette thèse porte sur la reconnaissance de petits vocabulaires, tels que les lettres ou les chiffres, prononcés de manière continue en milieu bruité. Pour mener à bien cette étude, différentes architectures connexionnistes ont été étudiées. L'utilisation de modèles connexionnistes nous a permis de mettre au point, grâce au mécanisme d'apprentissage, des systèmes qui sont immédiatement adaptés à différentes conditions de bruit. Un premier système a été mis en place qui permet, en trois étapes, de reconnaître les mots du vocabulaire étudié. Une première étape identifie des points d'ancrage dans le signal, ces points d'ancrage correspondant à une segmentation des parties vocaliques du signal. Une deuxième étape permet de reconnaître les voyelles contenues dans les segments retenus alors qu'une troisième étape permet de distinguer les différents mots du vocabulaire qui possèdent les mêmes voyelles. Cette architecture, basée sur des perceptrons multicouches, a prouvé être de bonne qualité mais l'étape de segmentation s'est révélée être de moindre qualité à des rapports signal sur bruit faible c'est à dire de l'ordre de 6 décibels ou moins. Ceci nous a poussé à étudier des modèles connexionnistes dynamiques, à l'opposé des perceptrons multicouches qui sont des modèles statiques. Les modèles dynamiques ont la particularité de mettre en place des mécanismes de récurrence qui permettent de mieux appréhender les phénomènes temporels tel que peut l'être un problème de segmentation de la parole. Le modèle gamma, un modèle connexionniste à récurrence locale, a ainsi été choisi tout autant pour ses capacités à modéliser les évènements temporels que pour la facilité avec laquelle il peut être analysé. Il a été appliqué à des problèmes de reconnaissance de séquences, ce qui a permis d'explorer ses capacités, ainsi qu'à des tâches de segmentation, pour tenter de résoudre les problèmes posés par les perceptrons multicouches lors de l'utilisation de notre premier système.
APA, Harvard, Vancouver, ISO, and other styles
8

Hedayat, Sara. "Conception et fabrication de neurones artificiels pour le traitement bioinspiré de l'information." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I039/document.

Full text
Abstract:
Actuellement, les technologies du traitement d'information ont atteint leurs limites et il devient donc urgent de proposer de nouveaux paradigmes capables de réduire la consommation d'énergie tout en augmentant la capacité de calcul des ordinateurs. Le cerveau humain est un fascinant et puissant organe, avec ses 300 milliards de cellule, il est capable d’effectuer des taches cognitives en consommant 20W. Dans ce contexte nous avons investiguer un nouveau paradigme appelé "neuromorphic computing" ou le traitement bio-inspiré de l'information.L'objectif de cette thèse est de concevoir et de fabriquer un neurone artificiel a très faible consommation utilisant les récentes avancées scientifiques dans les neurosciences et les nanotechnologies. Premièrement, on a investigué le fonctionnement d'un neurone vivant, sa membrane neuronale et nous avons exploré 3 différents modèles de membranes connues sous le nom de Hodgkin Huxley, Wei et Morris Lecar. Deuxièmement, en se basant sur le modèle de Morris Lecar, nous avons réalisé des neurones artificiels analogiques à spike avec différentes constantes de temps. Puis ils ont été fabriqués avec la technologie 65nm CMOS. Par la suite, nous les avons caractérisés et obtenu des performances dépassant l’état de l’art en terme de surface occupée, puissance dissipée et efficacité énergétique. Finalement, on a analysé et comparé le bruit dans ces neurones artificiels avec le bruit dans des neurones biologiques et on a démontré expérimentalement le phénomène de résonance stochastique. Ces neurones artificiels peuvent être extrêmement utiles pour une large variété d’application allant du traitement de données à l’application médicale
Current computing technology has now reached its limits and it becomes thus urgent to propose new paradigms for information processing capable of reducing the energy consumption while improving the computing performances. Moreover, the human brain, is a fascinating and powerful organ with remarkable performances in areas as varied as learning, creativity, fault tolerance. Furthermore, with its total 300 billion cells, is able to perform complex cognitive tasks by consuming only around 20W. In this context, we investigated a new paradigm called neuromorphic or bio-inspired information processing.More precisely, the purpose of this thesis was to design and fabricate an ultra-low power artificial neuron using recent advances in neuroscience and nanotechnology. First, we investigated the functionalities of living neurons, their neuronal membrane and explored different membrane models known as Hodgkin Huxley, Wei and Morris Lecar models. Second, based on the Morris Lecar model, we designed analog spiking artificial neurons with different time constants and these neurons were fabricated using 65nm CMOS technology. Then we characterized these artificial neurons and obtained state of the art performances in terms of area, dissipated power and energy efficiency. Finally we investigated the noise within these artificial neurons, compared it with the biological sources of noise in a living neuron and experimentally demonstrated the stochastic resonance phenomenon. These artificial neurons can be extremely useful for a large variety of applications, ranging from data analysis (image and video processing) to medical aspect (neuronal implants)
APA, Harvard, Vancouver, ISO, and other styles
9

Ekobo, Akoa Brice. "Détection et conciliation d'erreurs intégrées dans un décodeur vidéo : utilisation des techniques d'analyse statistique." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT069/document.

Full text
Abstract:
Ce manuscrit présente les travaux de recherche réalisés au cours de ma thèse, dont le but est de développer des algorithmes de correction d'erreurs dans un décodage numérique d'images et d'assurer un haut niveau de la qualité visuelle des images décodées. Nous avons utilisé des techniques d'analyse statistique pour détecter et dissimuler les artefacts. Une boucle de contrôle de la qualité est implémentée afin de surveiller et de corriger la qualité visuelle de l'image. Le manuscrit comprend six chapitres. Le premier chapitre présente les principales méthodes d'évaluation de la qualité des images trouvées dans l'état de l'art et introduit notre proposition. Cette proposition est en fait un outil de mesure de la qualité des vidéos (OMQV) qui utilise le système visuel humain pour indiquer la qualité visuelle d'une vidéo (ou d'une image). Trois modèles d'OMQV sont conçus. Ils sont basés sur la classification, les réseaux de neurones artificiels et la régression non linéaire, et sont développés dans le deuxième, troisième et quatrième chapitre respectivement. Le cinquièmechapitre présente quelques techniques de dissimulation d'artefacts présents dans l'état de l'art. Le sixième et dernier chapitre utilise les résultats des quatre premiers chapitres pour mettre au point un algorithme de correction d'erreurs dans les images. La démonstration considère uniquement les artefacts flou et bruit et s'appuie sur le filtre de Wiener, optimisé sur le critère du minimum linéaire local de l'erreur quadratique moyenne. Les résultats sont présentés et discutés afin de montrer comment l'OMQV améliore les performances de l'algorithme mis en œuvre pour la dissimulation des artefacts
This report presents the research conducted during my PhD, which aims to develop an efficient algorithm for correcting errors in a digital image decoding process and ensure a high level of visual quality of decoded images. Statistical analysis techniques are studied to detect and conceal the artefacts. A control loop is implemented for the monitoring of image visual quality. The manuscript consists in six chapters. The first chapter presents the principal state of art image quality assessment methods and introduces our proposal. This proposal consists in a video quality measurement tool (VQMT) using the Human Visual System to indicate the visual quality of a video (or an image). Three statistical learning models of VQMT are designed. They are based on classification, artificial neural networks and non-linear regression and are developed in the second, third and fourth chapter respectively. The fifth chapter presents the principal state of art image error concealment technics. The latter chapter uses the results of the four former chapters to design an algorithm for error concealment in images. The demonstration considers blur and noise artefacts and is based on the Wiener filter optimized on the criterion of local linear minimum mean square error. The results are presented and discussed to show how the VQMT improves the performances of the implemented algorithm for error concealment
APA, Harvard, Vancouver, ISO, and other styles
10

Volkoff, Anne-Nathalie. "Recherches de base pour l'élaboration d'un milieu artificiel brut assurant le développement de Trissolcus basalis (Woll. ) (Hymenoptera, Scelionidae), parasitoi͏̈de oophage de Nezara viridula L. (Hemiptera, Pentatomidae)." Toulouse, INPT, 1990. http://www.theses.fr/1990INPT020A.

Full text
Abstract:
La recherche d'un milieu artificiel brut pour le parasitoide oophage trissolcus basalis (woll. ) nous a conduit a etudier certains points de sa biologie in vivo. Il s'est avere qu'au cours du developpement embryonnaire, des granules puis des teratocytes sont liberes dans l'hote. Leur role sur le developpement larvaire, qui comprend trois stades, est encore a rechercher. En revanche, le suivi du comportement de ponte a permis de mettre en evidence l'injection par la femelle, avant le depot de l'uf, d'une substance qui agit indirectement sur le developpement preimaginal en modifiant l'organisation et la qualite trophique du vitellus hote. Les tests in vitro ont montre que la presence d'hemolymphe et/ou de vitellus hote est necessaire pour le developpement du parasitoide. Les meilleurs resultats (rendement et duree) ont ete obtenus avec un milieu contenant de l'hemolymphe de manduca sexta et un melange d'acides amines libres, ce qui indique un desequilibre en aminoacides de l'hemolymphe de lepidoptere utilisee. Les seules nymphes obtenues dans un milieu artificiel l'ont ete a partir de l2 agees dissequees de l'hote naturel; des adultes ont pu se former, mais seulement lorsque les l3 etaient a l'air libre. Ces resultats semblent indiquer qu'un facteur nutritionnel propre a l'hote ainsi que les echanges gazeux ont un role sur les processus de nymphose et de formation des adultes
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Bruit artificiel"

1

Stuewer, Roger H. The Age of Innocence. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780198827870.001.0001.

Full text
Abstract:
Nuclear physics emerged as the dominant field in experimental and theoretical physics between 1919 and 1939, the two decades between the First and Second World Wars. Milestones were Ernest Rutherford’s discovery of artificial nuclear disintegration (1919), George Gamow’s and Ronald Gurney and Edward Condon’s simultaneous quantum-mechanical theory of alpha decay (1928), Harold Urey’s discovery of deuterium (the deuteron), James Chadwick’s discovery of the neutron, Carl Anderson’s discovery of the positron, John Cockcroft and Ernest Walton’s invention of their eponymous linear accelerator, and Ernest Lawrence’s invention of the cyclotron (1931–2), Frédéric and Irène Joliot-Curie’s discovery and confirmation of artificial radioactivity (1934), Enrico Fermi’s theory of beta decay based on Wolfgang Pauli’s neutrino hypothesis and Fermi’s discovery of the efficacy of slow neutrons in nuclear reactions (1934), Niels Bohr’s theory of the compound nucleus and Gregory Breit and Eugene Wigner’s theory of nucleus+neutron resonances (1936), and Lise Meitner and Otto Robert Frisch’s interpretation of nuclear fission, based on Gamow’s liquid-drop model of the nucleus (1938), which Frisch confirmed experimentally (1939). These achievements reflected the idiosyncratic personalities of the physicists who made them; they were shaped by the physical and intellectual environments of the countries and institutions in which they worked; and they were buffeted by the profound social and political upheavals after the Great War: the punitive postwar treaties, the runaway inflation in Germany and Austria, the Great Depression, and the greatest intellectual migration in history, which encompassed some of the most gifted experimental and theoretical nuclear physicists in the world.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Bruit artificiel"

1

CHARPENTIER, Philippe. "Algorithmes en physique des particules." In Algorithmes et Société, 111–18. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4548.

Full text
Abstract:
Les expériences de physique des particules comme celles qui se font au CERN à Genève nécessitent des moyens informatiques extrêmement puissants afin de transformer les informations brutes provenant des détecteurs en données de physique analysables. Ce traitement est l'œuvre de centaines d'algorithmes qui élaborent graduellement l'information nécessaire à l'analyse. De nombreux algorithmes sont alors également utilisés dans cette phase finale d'analyse afin de séparer les événements intéressants du bruit de fond. Ces derniers sont très similaires aux algorithmes dont on parle souvent dans les moteurs de recherche ou dans les programmes d'intelligence artificielle. Nous passons en revue cette panoplie d'algorithmes utilisés à tous les étages de l'analyse de physique.
APA, Harvard, Vancouver, ISO, and other styles
2

Karumban, Subha, Shouvik Sanyal, Madan Mohan Laddunuri, Vijayan Dhanasingh Sivalinga, Vidhya Shanmugam, Vijay Bose, Mahesh B. N., Ramakrishna Narasimhaiah, Dhanabalan Thangam, and Satheesh Pandian Murugan. "Industrial Automation and Its Impact on Manufacturing Industries." In Revolutionizing Industrial Automation Through the Convergence of Artificial Intelligence and the Internet of Things, 24–40. IGI Global, 2022. http://dx.doi.org/10.4018/978-1-6684-4991-2.ch002.

Full text
Abstract:
Industries in recent days has been facing several issues including a dearth of labor, moribund joblessness rates, and towering labor turnover. This is projected to increase further in the upcoming days with the rise of the aged population. All these challenges can be addressed by the technology called industry automation. But there is an acuity that industrial automation will lead to job losses. However, in ingenious automation technology, lots of positive outputs can be achieved such as higher productivity and enhancement in yield. The role of automation in health and safety is awesome, but the brunt of this technology on jobs and efficiency worldwide has not been studied fully. In addition, automation technology safeguards the workers from highly dangerous work zones such as mines, space research, and underwater research. Thus, industrial automation is ready to serve humankind and business in various ways. This has been explained in this chapter.
APA, Harvard, Vancouver, ISO, and other styles
3

"Artifice and the imperatives of commercial success: From Brit Pop to the Spice Girls." In Women and Popular Music, 224–39. Routledge, 2013. http://dx.doi.org/10.4324/9780203354858-17.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography