Littérature scientifique sur le sujet « Transformation automatique »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Transformation automatique ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Transformation automatique"

1

Koptient, Anaïs, et Natalia Grabar. « Typologie de transformations dans la simplification de textes ». SHS Web of Conferences 78 (2020) : 11006. http://dx.doi.org/10.1051/shsconf/20207811006.

Texte intégral
Résumé :
L’objectif de la simplification automatique de textes est de transformer un texte technique ou difficile à comprendre en un document plus compréhensible. Le sens doit être préservé lors de cette transformation. La simplification automatique peut être effectuée à plusieurs niveaux (lexical, syntaxique, sémantique, ou encore stylistique) et repose sur des connaissances et ressources correspondantes (lexique, règles, …). Notre objectif consiste à proposer des méthodes et le matériel pour la création de règles de transformation acquis à partir d'un échantillon de paires de phrases parallèles différenciées par leur technicité. Nous proposons également une typologie de transformations et les quantifions. Nous travaillons avec des données en langue française liées au domain médical, même si nous estimons que notre méthode peut s'appliquer à n'importe quelle langue et n'importe quel domaine de spécialité.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ohmaid, Hicham, S. Eddarouich, A. Bourouhou et M. Timouya. « Comparison between SVM and KNN classifiers for iris recognition using a new unsupervised neural approach in segmentation ». IAES International Journal of Artificial Intelligence (IJ-AI) 9, no 3 (1 septembre 2020) : 429. http://dx.doi.org/10.11591/ijai.v9.i3.pp429-438.

Texte intégral
Résumé :
<p class="Abstract"><span lang="EN-US"><span style="vertical-align: inherit;"><span style="vertical-align: inherit;">Un système biométrique d'identification et d'authentification permet la reconnaissance automatique d'un individu en fonction de certaines caractéristiques ou caractéristiques uniques qu'il possède. </span><span style="vertical-align: inherit;">La reconnaissance de l'iris est une méthode d'identification biométrique qui applique la reconnaissance des formes aux images de l'iris. </span><span style="vertical-align: inherit;">En raison des motifs épigénétiques uniques de l'iris, la reconnaissance de l'iris est considérée comme l'une des méthodes les plus précises dans le domaine de l'identification biométrique. </span><span style="vertical-align: inherit;">L'algorithme de segmentation proposé dans cet article commence par déterminer les régions de l'œil à l'aide d'une approche neuronale non supervisée, après que le contour de l'œil a été trouvé à l'aide du bord de Canny, la transformation de Hough est utilisée pour déterminer le centre et le rayon de la pupille et de l'iris. . </span><span style="vertical-align: inherit;">Ensuite, la normalisation permet de transformer la région de l'iris circulaire segmenté en une forme rectangulaire de taille fixe en utilisant le modèle de feuille de caoutchouc de Daugman. </span><span style="vertical-align: inherit;">Une transformation en ondelettes discrètes (DWT) est appliquée à l'iris normalisé pour réduire la taille des modèles d'iris et améliorer la précision du classificateur. </span><span style="vertical-align: inherit;">Enfin, la base de données URIBIS iris est utilisée pour la vérification individuelle de l'utilisateur en utilisant le classificateur KNN ou la machine à vecteur de support (SVM) qui, sur la base de l'analyse du code de l'iris lors de l'extraction des caractéristiques, est discutée.</span></span></span></p>
Styles APA, Harvard, Vancouver, ISO, etc.
3

Essebbahi, Issam, Chadia Ouazzani, Abdallah Moustaghfir, Abdallah Dami et Lhoussine Balouch. « Analyses physicochimiques de différents thés commerciaux et risque de l’excès de fluor chez la population au Maroc ». International Journal of Biological and Chemical Sciences 14, no 4 (17 août 2020) : 1203–13. http://dx.doi.org/10.4314/ijbcs.v14i4.4.

Texte intégral
Résumé :
Sous la forme de fluorure, le fluor entre dans la constitution des tissus durs comme les dents, les os et les cartilages. L’apport excessif en fluor pendant plusieurs mois ou plusieurs années lors de la période de formation des dents peut provoquer la fluorose. Certains aliments habituellement consommés au Maroc sont riches en fluor. Les traitements industriels de transformation, préparation et conservation mettent à la disposition du consommateur des aliments de coût moins chers et de compositions variables qui peuvent être nuisibles à la santé buccale. L’étude des qualités physicochimiques de différentes sources alimentaires de fluor constituées de différents thés noirs, verts, d’eaux de puits consommés par la population marocaine permet de dévoiler la corrélation entre la consommation des aliments riches en fluor et l’apparition de la fluorose dentaire. Différentes de tisanes de granules de 12 thés verts et noirs ont été préparés selon la variation de la durée d’infusion et du mode d’ébullition. Les teneurs de fluor, calcium, chlorures ont été déterminées par les méthodes spectrophotométriques sur 17 échantillons de thés verts et noirs commercialisés, thés glacés, thés de distributeur automatique, thé de buvette, thé de préparation familiale. La teneur en fluor a été déterminée sur 3 échantillons des eaux de puits, 3 eaux d’assainissement urbain de la région de Skhirat Témara afin de déterminer l’apport de fluor contenu dans l’eau de préparation des tisanes. Les analyses physicochimiques révèlent des taux de calcium de 14 à 60 mg/l, chlorures (14 à 75 mg/l) et de fluor (0,93 à 2,7 mg/l) chez les différents thés verts et noirs étudiés, thé de distributeur automatique, thé de buvette et familiale. Les analyses des taux de fluor de 3 échantillons de thés verts marquent Sultan, Menara, Dahmis et un thé noir Earl Grey révèlent des valeurs supérieures aux normes recommandées pour les enfants et les adultes. Le taux de fluor du thé de la buvette est supérieur à celui du thé de distributeur automatique et de préparation familiale. Ces résultats permettent de prévenir la population face au risque d’atteinte de la fluorose dentaire, en limitant la quantité de fluor ingérée par les aliments consommés. Les analyses des niveaux de fluor de tous les types de produits de thés et des eaux de préparation des thés permettront de disposer de mesures de protection de consommation excessive de fluor.Mots clés : Fluor, aliments, thés, Maroc, excès, risques, fluorose English Title: Physicochemical analyzes of different commercial teas and risk of excess fluorine in the population in Morocco In the form of fluoride, fluorine enters into the constitution of hard tissues such as teeth, bones and cartilage. Excessive intake of fluoride for several months or years during the period of tooth formation can cause fluorosis. Some foods usually consumed in Morocco are rich in fluorine. The industrial treatments of preparation, transformations make available to the consumer cheaper foods of variable composition which can be harmful to oral health. The study of physicochemical qualities of different food sources of fluorine consisting of different black teas, green teas and well water consumed by the population reveals a correlation between the consumption of foods rich in fluorine and the appearance of dental fluorosis. Different preparations of herbal teas from granules of 12 green and black teas were prepared according the variation of the infusion time, the boiling mode. The contents of fluorine, calcium, chlorides were determined by spectrophotometric methods on 17 samples of green and black teas from vending machines, refreshment tea, family preparation tea. The fluorine content was determined on 3 samples of well water, 3 urban sanitation water from the Skhirat Temara region in order to determine the fluorine content contained in the water for preparing herbal teas. The physicochemical analyzes reveal levels of Calcium (14 to 60 mg/l), Chlorides (14 to 75 mg/l) and fluorine (0.93 to 2.7 mg/l) in the various green and black teas studied, tea vending machine, refreshment and family tea. The analyzes of the fluoride levels of three samples of marketed green teas Sultan, Menara, Dahmis and an Earl Gray black tea reveal values higher than the recommended standards for children’s and adults. The fluoride level of the tea in the refreshment room is higher than that of the vending machine and family preparation tea. These results make it possible to warn the population facing the risk of developing dental fluorosis, by limiting the amount of fluorine ingested by the consumed food. Analyzes of fluoride levels of all types of tea products and tea preparation waters will provide measures to protect against excessive fluoride consumption. Keywords: Fluorine, foods, teas, Morocco, excess, risk, fluorosis.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Poreba, Martyna, et François Goulette. « Recalage rigide de relevé laser par mise en correspondance robuste basée sur des segments ». Revue Française de Photogrammétrie et de Télédétection, no 207 (24 septembre 2014) : 3–17. http://dx.doi.org/10.52638/rfpt.2014.208.

Texte intégral
Résumé :
Le recalage se révèle indispensable pour assembler des relevés laser devant servir à l'analyse, à la documentation et à la reconstruction tridimensionnelle d'environnements. Ce problème apparaît lorsqu'une zone d'intérêt est numérisée, au fil du temps, deux ou plusieurs fois, ou quand sa complexité nécessite un accroissement du nombre de stations de scanner laser fixes. Aussi, en raison de la variété des techniques disponibles d'acquisition, l'intégration multi-données devient une question importante puisqu'elle permet de mettre en cohérence des données contenant souvent une information complémentaire. La vaste majorité des algorithmes existants s'appuient sur les éléments ponctuels. C'est pourquoi les méthodes ICP basées-point demeurent actuellement les plus répandues. Cet article propose l'utilisation des segments sous forme d'intersections entre les plans principaux, pour un recalage rigide des nuages de points mobiles avec d'autres données, qu'elles soient 2D ou 3D. Ces primitives peuvent être aisément extraites, même dans les données laser hétérogènes de faible densité. Quelques méthodes de recalage basées-lignes ont été examinées afin de vérifier leur précision et robustesse au bruit. Les erreurs des paramètres estimés ainsi qu'un nouveau critère — distance modifiée de Hausdorff ont été employés pour les besoins d'une analyse quantitative. Au vu de ces éléments, une chaîne complète nommée RLMR-FMII 2 comprenant un recalage grossier suivi par un recalage fin est proposée pour calculer les paramètres de pose à partir de segments appariés.Étant donné que la mise en correspondance automatique d'entités linéaires est ardue et influence l'estimation des paramètres optimaux de transformation, une méthode d'appariement étudiant la similitude relative est avancée. Enfin, l'efficacité de cette méthode de recalage par mise en correspondance préalable des segments est évaluée et discutée.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Rochard, Michel. « Du papier au numérique, traduction et mutations technologiques ». FORUM / Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation 15, no 2 (1 décembre 2017) : 212–27. http://dx.doi.org/10.1075/forum.15.2.03roc.

Texte intégral
Résumé :
Résumé En juin 1990 se tenait dans les locaux de l’ESIT un colloque sur La liberté en traduction en hommage à Danica Seleskovitch. Nous retiendrons cette date et ce colloque comme point de départ de notre contribution sur le rapport de la traduction avec l’écrit et la réécriture parce qu’ils s’inscrivent dans un contexte remarquable: Le thème de la liberté en traduction renvoie à la question du rapport du traducteur avec le texte original (l’écrit) et aux limites de son action de réécriture. Sur le plan traductologique, le débat entre sourciers et ciblistes est pratiquement dépassé et les grands courants pragmatistes (Théorie interprétative, Théorie du Skopos et analyse de discours) commencent à converger. Les théories linguistiques de la traduction perdent du terrain. Le métier n’est encore que peu touché par les mutations technologiques. La TAO est balbutiante, la traduction automatique moribonde et la généralisation du traitement de texte peut être considérée comme un simple changement d’instrument d’écriture. Le papier (texte, document, publication, livre…) est le vecteur archi-dominant de la communication susceptible de faire appel aux traducteurs. L’impact de la Chute du mur de Berlin sur l’économie mondiale n’est pas encore perceptible. Dans la suite de notre communication, ce sont ces éléments de contexte qui nous serviront de paramètres pour l’analyse de l’évolution du rapport de la traduction avec l’écrit et la réécriture au cours des deux périodes, à savoir la vingtaine d’années qui suit (mondialisation économique, Internet et messagerie, développement de la TAO) et surtout la période actuelle de la transformation numérique qui semble devoir donner lieu aux plus grandes mutations du métier de traducteur, notamment dans ses rapports avec le papier, l’écrit et la réécriture.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Maurel, Denis. « Grammaire des Dates Etude Préliminaire à Leur Traitement Automatique ». Lingvisticæ Investigationes. International Journal of Linguistics and Language Resources 12, no 1 (1 janvier 1988) : 101–28. http://dx.doi.org/10.1075/li.12.1.05mau.

Texte intégral
Résumé :
Grammar of dates: Preliminary study to their automatic treatment. The automatic analysis of dates in a text requires a precise description of all the possible forms. This article presents a detailed study of the sentence Ceci est arrivé le jeudi 3 avril 1986 à huit heure cinq (this happened thursday april the third 1986 at five past eight) according to the transformational methods developed by Z.S. Harris and M. Gross. This sentence is considered as derived from a more complete one where genitives have been introduced and whose different steps of derivation are nearly all attested (sometimes in old French). The sentences obtained in this way are analysed either by the replacement of the definite article by another determinant, or by its deletion. For each determinant, an automaton is described which identifies the various attested forms. Finally, the influence on the previous forms of modifiers and conjunctions is studied. There follows a short description of the calendar and the resulting constraints.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Jacqmin, Laurence. « La traduction automatique au service de l’utilisateur monolingue ». Meta 37, no 4 (30 septembre 2002) : 610–23. http://dx.doi.org/10.7202/003237ar.

Texte intégral
Résumé :
Résumé L'article présente le projet de recherche en traduction automatique, Babel-Research, qui a débuté en janvier 1988 sous l'égide de l'Université Libre de Bruxelles. Il a récemment abouti à la réalisation a'un prototype de traduction de correspondance commerciale français-anglais. Le système est conçu comme un outil de travail pour un(e) secrétaire monolingue, ce qui impose certaines contraintes à l'architecture du système. Puisque l'utilisateur n'est pas à même de corriger le texte cible, le système doit garantir une qualité de traduction satisfaisante. Notre principale voie de recherche consiste à évaluer d'une part si un système basé sur la pré-édition normative du texte source et l'interaction avec son rédacteur en cours de traduction offre une solution valable aux systèmes à postédition plus courants ; et à évaluer d'autre part quelle couverture syntaxique et sémantique ce type de système peut comparativement proposer. L’article présente d'abord les options théoriques du projet : architecture de transfert, modularité computationnelle, paradigme d'unification. Ensuite, il décrit le prototype, Babel-2, en mettant l'accent sur ses caractéristiques originales. Premièrement, nous avons mis au point une stratégie d'analyse en « pas de deux », qui combine les avantages des stratégies descendante et ascendante tout en contournant leurs inconvénients. En bref, un premier mouvement établit les relations de constituance, un second les liens de dépendance. Deuxièmement, Babel-2 reconnaît et traduit de manière adéquate divers types d'idiomes français. Troisièmement, il résout une série de problèmes de traduction complexes tels les nuances aspectuelles, le génitif saxon, les changements d'ordre des mots. Il traite également les constructions qui présentent des transformations structurelles telles que suppression d'arguments, adjonction d'arguments, inversion des relations de dépendance... Un regard prospectif vers les recherches futures clôture la présentation.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Ladmiral, Jean-René. « Le « salto mortale de la déverbalisation » ». Meta 50, no 2 (20 juillet 2005) : 473–87. http://dx.doi.org/10.7202/010994ar.

Texte intégral
Résumé :
Résumé Le processus de la traduction n’obéit pas au schéma linéaire d’une séquence de transformations linguistiques présupposant qu’existent d’une langue à l’autre des « axes paraphrastiques » – ainsi qu’aimeraient le penser bien des linguistes et comme s’efforce nécessairement de l’opérationnaliser la traduction automatique (T.A.). Le plus souvent, au contraire, la traduction se caractérise par la discontinuité : le passage du texte-source (To) au texte-cible (Tt) implique un saut (saltus). Il se produit donc un processus de déverbalisation entre le texte original qui n’est « déjà plus » là et sa traduction qui n’est « pas encore ». Mais le concept de déverbalisation fait problème. Il paraît évident en effet que le sens ne saurait exister sans un support – dont la nature reste à définir. Toujours est-il qu’en attendant les acquis scientifiques à venir d’une traductologie inductive, relevant des sciences cognitives, il y aura lieu de penser les processus de la traduction dans les termes d’une traductologie productive.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Blanco, Xavier. « Propriétés transformationnelles unaires en lexicographie informatique ». Traduction 55, no 1 (30 avril 2010) : 42–57. http://dx.doi.org/10.7202/039601ar.

Texte intégral
Résumé :
Résumé Le présent article fait état d’un inventaire des propriétés transformationnelles unaires pensé pour le codage des prédicats dans un dictionnaire électronique conçu principalement pour la traduction automatique espagnol-français. Le travail a un caractère éminemment métalexicographique et appliqué. Il ne contient pas de nouveautés théoriques puisque toutes les transformations présentées sont bien connues. Son but est de fournir à un linguiste informaticien travaillant en contexte multilingue une vue d’ensemble de cette partie de la description linguistique. En amont des propriétés transformationnelles, nous traitons les alternances de traits syntactico-sémantiques pour une position argumentale donnée, les alternances de prépositions, les interprétations non agentives et les diathèses spéciales. Comme transformations unaires, nous présentons : l’insertion de déterminants nominaux, l’insertion de partie appropriée, les insertions d’un argument, les pronominalisations, l’effacement d’un argument, les permutations d’arguments (sous-divisées en : permutations proprement dites, détachements, extrapositions et extractions), les changements de diathèse (la passive pleine, la passive indirecte, le réfléchi, la passive impersonnelle et différents types de restructurations : les restructurations N0 – (Prép) N1, les restructurations N0 – Prép N2 et les restructurations (Prép) N1 – Prép N2). Finalement, nous abordons les variantes syntaxiques des verbes support. Les propriétés retenues sont illustrées moyennant des exemples en français et en espagnol.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Castellar, Guilherme Batistella, Mateus Ferreira Rumbelsperger Querido et Fernando De Souza Meirelles. « To the top : the impact of digital transformation on the market value of Magazine Luiza ». International Journal of Innovation 9, no 3 (17 décembre 2021) : 439–73. http://dx.doi.org/10.5585/iji.v9i3.18621.

Texte intégral
Résumé :
Objective of the study: This article aims to highlight the aspects that drove the implementation of digital transformation on Magazine Luiza and contribute to the development of the digital transformation theory.Relevance/originality: Information technology (IT) offers opportunities for businesses to automatize operations and change business strategies (Henderson Venkatraman, 1999), but it is still not clear for every business how to embrace technology (Drnevich Croson, 2013).Methodology/approach: Using a case study, we analyzed the main aspects of the digital transformation of the Brazilian retailer Luiza Magazine, which achieved a 43,000% increase in its share price between 2015 and 2020, mainly due to innovations enabled by IT.Main results: We identify that some of the main aspects of the company's digital transformation have not been properly studied in the literature, such as the use of a bimodal IT structure and the use and interconnectivity between traditional and new technologies in innovative and even disruptive ways.Theoretical/methodological contributions: This study contributes to the literature by analyzing empirical data on the pillars that support the implementation of digital transformation in an organization, which can be used as input to theory development on digital transformation.Social/management contributions: The digital transformation of Magazine Luiza resulted in a large increase in the market value of the company. This, aligned with the company’s expansion and increasingly better results, suggests that technology has the potential to change the company’s strategy and lead to its success, corroborating Bharadwaj’s (2013) view.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Transformation automatique"

1

Mesbahi, Larbi. « Transformation automatique de la parole : étude des transformations acoustiques ». Rennes 1, 2010. https://tel.archives-ouvertes.fr/tel-00547088.

Texte intégral
Résumé :
Le travail effectué dans cette thèse présente une évaluation des techniques de transformation de voix à base de GMM. Ces techniques de transformation linéaires malgré leurs qualités obtenues, elles ne manquent pas de quelques défauts, on peut noter le sur-lissage, le problème de distorsion spectrale et le sur-apprentissage. Dans un premier volet, nous avons pris en compte ces questions pour adapter la stratégie d'apprentissage des fonctions de conversion. La première c'est la réduction du nombre des paramètres libres de la fonction de conversion. La deuxième considère que les solutions par transformation linéaire sont instables face au peu de données d'apprentissage, d'où le recours aux modèles de transformation non-linéaire de type RBF. Dans un deuxième volet, pour aligner les données non-parallèles des locuteurs source et cible, une solution consiste à correspondre ces données via une représentation récursive d'un arbre binaire. Dans un dernier volet, pour obtenir une haute qualité de voix, l'utilisation d'un modèle de true-envelope est nécessaire. Pour cela, le recours aux techniques de réduction de dimension par PCA est indispensable avant d'appliquer les méthodes de conversion
This work presents an experimental evaluation of various voice transformation techniques based on GMM models. These linear transforms, despite their quality obtained, they fail to some defects specially the oversmoothing effect, the problem of spectral distortion and the overfitting. In a first part, we proposed taking these issues into account to adapt the learning strategy of the conversion functions. The first main idea is to reduce the number of parameters describing the conversion function. The second idea considers the solutions based on linear transform are unstable face to the lack of the training data, hence the recourse to non-linear transform model like RBF. In a second part in some situations, we need to align non-parallel data from the source and target speakers, one solution consists to use a recursive representation of binary tree, whose depth depends on the learning data size. In the last part, to get a high voice quality, we have proposed a model of parameters issued from the PCA projection on the true envelope before applying the conversion methods
Styles APA, Harvard, Vancouver, ISO, etc.
2

Mesbahi, Larbi. « Transformation automatique de la parole - Etude des transformations acoustiques ». Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00547088.

Texte intégral
Résumé :
Le travail effectué dans cette thèse s'insère dans le cadre de la conversion automatique de la voix. La problématique générale est de modifier le signal d'un énoncé pour qu'il soit perçu comme prononcé par une autre personne. Les Systèmes de Conversion de Voix (SCV) de l'état de l'art utilisent pour la plupart des modèles de voix probabilistes GMM (Gaussian Mixture Models). Ces SCV utilisent des fonctions de conversion linéaires apprises à partir des GMMs. Elles permettent d'obtenir des voix converties de bonne qualité. Cependant, elles sont soumises à des défauts de conception liées à l'apprentissage de ces modèles. On peut ainsi noter le surlissage (oversmoothing) qui est une généralisation trop poussée et son opposé, le sur-apprentissage (overfitting) qui est une spécialisation trop poussée. Un aspect de cette thèse explore différentes stratégies d'apprentissage des fonctions de conversion. La première piste suivie est la réduction du nombre des paramètres libres de la fonction de conversion. La deuxième propose une alternative aux fonctions de conversion linéaires basées sur des GMMs en recourant aux modèles de transformation non-linéaire à base de réseaux de Neurones (RBF, Radial Basis Functions). Cette thèse s'intéresse d'autre part aux données utilisées pour apprendre les modèles de voix et les transformations. En effet, pour apprendre la fonction de conversion, les données issues des locuteurs source et cible doivent être mises en correspondance. Or, dans la plupart des cas d'utilisation, ces données ne sont pas parallèles. Autrement dit, les deux locuteurs n'ont pas prononcé suffisamment de phrases similaires. Notre proposition consiste à faire correspondre ces données lacunaires en les décomposant en classes acoustiques et en s'appuyant sur l'appariement, classique, des classes acoustiques cibles et sources. Enfin, notre intérêt se porte sur la paramètrisation de la voix car, pour obtenir une haute qualité de voix, il est nécessaire que cette paramètrisation conserve un maximum d'information sur le locuteur. Il s'agit en l'occurrence de l'enveloppe de son signal, obtenue fidèlement par la méthode de True-Envelope. Or, les premières études ont montré que ces données doivent être réduites pour nourrir un modèle probabiliste efficace. Pour cela, nous avons recours à la technique de réduction de dimension d'analyse par composantes principales (PCA, Principal componant analysis). Cette solution s'avère plus efficace lorsqu'on différencie les fonctions de transformation selon la classe phonétique.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Lolive, Damien Boëffard Olivier Barbot Nelly. « Transformation de l'intonation application à la synthèse de la parole et à la transformation de voix / ». Rennes : [s.n.], 2008. ftp://ftp.irisa.fr/techreports/theses/2008/lolive.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Lolive, Damien. « Transformation de l'intonation : application à la synthèse de la parole et à la transformation de voix ». Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/lolive.pdf.

Texte intégral
Résumé :
Les travaux de cette thèse se situent dans le cadre de la transformation de la prosodie en se focalisant sur la fréquence fondamentale, F0, facteur jugé proéminent dans le traitement de la prosodie. En particulier, nous nous intéressons aux différentes étapes nécessaires à la construction d'un tel système : la stylisation, la classification et la transformation des contours mélodiques. Pour chaque étape, nous proposons une méthodologie qui tient compte des problèmes qui se sont posés à l'étape précédente. Tout d'abord, un modèle B-spline est proposé pour la stylisation des contours mélodiques. Ensuite, pour représenter l'espace mélodique du locuteur, une approche par modèles de Markov est introduite. Enfin, une méthodologie de transformation de la prosodie à partir de corpus non parallèles par une technique d'adaptation au locuteur est présentée. Les résultats obtenus tendent à montrer qu'il est nécessaire de traiter la dynamique du F0 et de piloter la transformation par des informations d'ordre morphosyntaxique
The work presented in this thesis lies within the scope of prosody conversion and more particularly the fundamental frequency conversion which is considered as a prominent factor in prosody processing. This document deals with the different steps necessary to build such a conversion system : stylization, clustering and conversion of melodic contours. For each step, we propose a methodology that takes into account the issues and difficulties encountered in the previous one. A B-spline based approach is first proposed to model the melodic contours. Then to represent the melodic space of a speaker, a HMM based approach is introduced. To finish, a prosody transformation methodology using non-parallel corpora based on a speaker adaptation technique is derived. The results we obtain tend to show that it is necessary to model the evolution of the melody and to drive the transformation system by using morpho-syntactic information
Styles APA, Harvard, Vancouver, ISO, etc.
5

Bonhomme, Stéphane. « Transformation de documents structurés, une combinaison des approches explicite et automatique ». Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00010471.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse ont pour thème la transformation des documents structurés. Un document structuré est une collection d'éléments typés organisée par un ensemble de relations logiques définissant une structure hiérarchique. Ces relations sont définies par des grammaires hors-contexte qui décrivent des classes de documents. L'utilisation des documents structurés permet d'automatiser une partie des traitements effectués sur les documents et contribue également à améliorer leur portabilité en proposant une syntaxe commune définie par des normes (SGML, XML). Les applications utilisant cette représentation souffrent néanmoins de limites liées aux contraintes impliquées par la structuration des documents. L'objectif de ce travail est de répondre à ces limites par des techniques de transformation. Ces techniques ont pour but de modifier la structure d'un ensemble d'éléments typés pour le conformer à d'autres types ou à une nouvelle classe de documents. Cette thèse est articulée en trois parties : 1. Une étude des applications de traitement de documents identifiant les besoins de transformation, plus particulièrement dans le domaine de l'édition interactive. 2. Une évaluation des techniques et outils existant conduisant à une classific- ation des approches (filtres, transformation explicite ou automatique). Chaque classe fait l'objet d'une étude théorique, d'une étude des systèmes disponibles et d'une expérimentation. 3. Une proposition de méthode de transformation combinant les différentes techniques pour tirer parti de leurs points forts et répondre aux limitations de chacune. Cette méthode est fondée sur un algorithme de transformation automatique paramétré à l'aide de pré-couples explicites. Ce travail a conduit au développement des systèmes de transformation aujourd'h- ui intégrés dans des logiciels du projet Opéra (Thot, Byzance) et du consortiu- m W3C (Amaya).
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bonhomme, Stéphane. « Transformation de documents structurés, une combinaison des approches explicite et automatique ». Phd thesis, Grenoble 1, 1998. http://www.theses.fr/1998GRE10241.

Texte intégral
Résumé :
Les travaux presentes dans cette these ont pour theme la transformation des documents structures. Un document structure est une collection d'elements types organisee par un ensemble de relations logiques definissant une structure hierarchique. Ces relations sont definies par des grammaires hors-contexte qui decrivent des classes de documents. L'utilisation des documents structures permet d'automatiser une partie des traitements effectues sur les documents et contribue egalement a ameliorer leur portabilite en proposant une syntaxe commune definie par des normes (sgml, xml). Les applications utilisant cette representation souffrent neanmoins de limites liees aux contraintes impliquees par la structuration des documents. L'objectif de ce travail est de repondre a ces limites par des techniques de transformation. Ces techniques ont pour but de modifier la structure d'un ensemble d'elements types pour le conformer a d'autres types ou a une nouvelle classe de documents. Cette these est articulee en trois parties : 1. Une etude des applications de traitement de documents identifiant les besoins de transformation, plus particulierement dans le domaine de l'edition interactive. 2. Une evaluation des techniques et outils existant conduisant a une classification des approches (filtres, transformation explicite ou automatique). Chaque classe fait l'objet d'une etude theorique, d'une etude des systemes disponibles et d'une experimentation. 3. Une proposition de methode de transformation combinant les differentes techniques pour tirer parti de leurs points forts et repondre aux limitations de chacune. Cette methode est fondee sur un algorithme de transformation automatique parametre a l'aide de pre-couples explicites. Ce travail a conduit au developpement des systemes de transformation aujourd'hui integres dans des logiciels du projet opera (thot, byzance) et du consortium w3c (amaya).
Styles APA, Harvard, Vancouver, ISO, etc.
7

Azibi, Nadia. « Trequasi : un système pour la transformation automatique de programmes PROLOG récursifs en quasi-itératifs ». Paris 11, 1987. http://www.theses.fr/1987PA112415.

Texte intégral
Résumé :
TREQUASI est un système de transformation de programmes Prolog REcursifs en QUASI-Itératifs implémenté en Prolog. Un programme Prolog récursif linéaire est un programme dont une de ses clauses est une clause récursive linéaire de la forme [ P :- Q1 , Pr, Q2. ]. Un programme Prolog quasi-itératif (itératif au sens de Mac Canhy) est un programme dont toutes les clauses récursives qui constituent ce programme ont des appels récursifs terminaux de la forme [ P :- Q1, Pr. ] Q1 est une conjonction de littéraux qui peut être éventuellement vide, Q2 est une conjonction d'atomes qui peut être réduite à un seul atome et Prest l'appel récursif du prédicat P. La méthode de transformation construite est basée sur le principe de Pliage/Dépliage de Burstall-Darlington appliqué à la programmation logique. La transformation s'effectue en deux phases. Premièrement, on détermine le prédicat généralisé appelé EUREKA qui doit répondre aux critères de transformation afin de le transformer en un ensemble de clauses quasi-itératives. Ceci, implique que l'EUREKA en question est soumis à des contraintes permettant de réaliser le Pliage et le Dépliage de Burstall-Darlington. La deuxième phase, consiste donc à transformer l'EUREKA en question en un ensemble de clauses quasi-itératives. Dans cette phase, on est amené à développer une stratégie qui permet d'une part de choisir une règle à appliquer afin d'éviter d'utiliser les règles qui risquent de faire boucler le système et d'autre part de construire (partiellement ou entièrement selon les cas) les règles (propriétés) nécessaires pour faire aboutir la transformation. TREQUASI n'a pas besoin d'avoir une base de connaissances complète, en cas de besoin, TREQUASI fournir la règle qu'il faut et qui sera validée par l'utilisateur.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Barreaud, Vincent. « Reconnaissance automatique de la parole continue : compensation des bruits par transformation de la parole ». Nancy 1, 2004. http://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf.

Texte intégral
Résumé :
Les performances d'un système de reconnaissance automatique de la parole se dégradent lorsque les conditions de test et d'entraînement diffèrent. L'approche classique du Stochastic Matching (SM) propose une estimation en temps-différé d'une fonction de compensation qui maximise la vraisemblance de la parole compensée par rapport à la séquence de modèles proposée par le processus de reconnaissance. Nous proposons des techniques temps-réel basées sur SM : la compensation s'effectue en parallèle avec le processus de reconnaissance. Cela permet de compenser dans un environnement variant lentement. Deux améliorations ont été apportées: -Une structure arborescente de transformations permet de construire une fonction de compensation non-linéaire dépendant du type acoustique de la parole. -Un processus surveillant les changements dans l'environnement déclenche la réinitialisation du processus de compensation. Cela permet à notre algorithme de fonctionner dans des environnements variant abruptement
Performances of an automatic speech recognition system degrade when test and training conditions do not match. Classical Stochastic Matching (SM) method proposes an off-line estimation of a compensation function that maximizes the likelihood of the compensated speech, given the optimal sequence of models proposed by the recognition process. We developed a new frame-synchronous technic based on SM : compensation is performed in parallel with the recognition. This is suitable to cope with slowly varying noise. We proposed two additional versions of our approach: -a tree structure of transformations is used to build a state-dependant non-linear compensation function. This is motivated by the fact that similar observations will be affected similarly by the environment. -a surveillance process monitoring the fluctuations in the environment is used to trigger the reinitialisation of the compensation process. This enables our algorithm to cope with environments experiencing sudden occurrences of noise
Styles APA, Harvard, Vancouver, ISO, etc.
9

Azibi, Nadia. « TREQUASI un système pour la transformation automatique de programmes PROLOG récursifs en quasi-itératifs / ». Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37602493s.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Barreaud, Vincent Haton Jean-Paul. « Reconnaissance automatique de la parole continue compensation des bruits par transformation de la parole / ». (S.l.) : (s.n.), 2004. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2004_0175_BARREAUD.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Transformation automatique"

1

DeRusso, Paul M. State variables for engineers. Malabar, Fla : Krieger, 1990.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Leigh, J. R. Control theory : A guided tour. Stevenage, Herts, UK : Peter Peregrinus, 1991.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Control theory : A guided tour. London : P. Peregrinus on the behalf of the Institution of Electrical Engineers, 1992.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Engineers, Institution of Electrical, dir. Control theory. 2e éd. London : Institution of Electrical Engineers, 2004.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Mesbahi, Larbi. Transformation automatique de la parole : Etude des transformations acoustiques. Omniscriptum, 2013.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Tensor Product Model Transformation in Polytopic ModelBased Control Automation and Control Engineering. CRC Press, 2012.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Roy, Rob J., Alan A. Desrochers, Charles M. Close et Paul M. DeRusso. State Variables for Engineers. Wiley & Sons, Incorporated, John, 2008.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Transformation automatique"

1

Rossi, Caroline, et Aurelien Talbot. « Traduction automatique et traduction institutionnelle : le modèle neuronal a-t-il changé la donne ? » Dans Human Translation and Natural Language Processing Towards a New Consensus ? Venice : Fondazione Università Ca’ Foscari, 2023. http://dx.doi.org/10.30687/978-88-6969-762-3/010.

Texte intégral
Résumé :
A sequel to our study of the uses and perceptions of machine translation and post-editing within the European Commission’s Directorate-General for Translation (Rossi et al. 2019), this article sets out to reconsider the implications of the shift to neural machine translation in this institution. On the basis of semi-directed interviews conducted in March 2022 with 11 translators in different language department of the D-G Translation, we outline a set of concomitant factors likely to account for the transformations underway, calling into question the boundaries between machine translation and computer-assisted translation, and between translation and post-editing.
Styles APA, Harvard, Vancouver, ISO, etc.

Actes de conférences sur le sujet "Transformation automatique"

1

Nomeer, Mohamed. « Intelligent Energy Platform ». Dans International Petroleum Technology Conference. IPTC, 2021. http://dx.doi.org/10.2523/iptc-21252-ms.

Texte intégral
Résumé :
Abstract Turning an organization to an effective data driven decision making is vital factor to have and achieve digital transformation journey smoothly and successfully in the Energy sector, in which the energy industry has been trying to achieve the complete cycle Listen, Understand, effect and Decide rightly and quickly across the whole value chain such as HR, Finance, legal and contracts, operations, etc. since several decades where the software solutions were not in the priority list of the industry special the operations for many reasons, which created a serious of concequences which the industry is suffering from now such as listening carefully to the operations, understand the exact needs no matter how much we might save even if it’s 1 USD or 1 minute but do it correctly first time will save hours and millions later, silos in the organizations, distracted technologies not integrated, limitation of the technologies capabilities, people skills and compenetencies and the expectation the has been always set wrongly didn't support the industry to have organization reliance, security, safety, service quality and loyalty and reduce time and cost. With the current unprecedented crisis which are the COVID-19 and the massive oil crisis bundled together have created disturbance across the whole Energy industry which impacted the whole value chain not only for the Energy industry not the rest of the industries dramatically. The Panademic affect the whole key processes that the people used to for the last several decades, but the most important thing is change management process or manage to change process approach which is completely changed and from my opinion since years came true. Having the disruptive technologies will support the whole industry to come back much stronger than before as proven in other industries such as Aerospace and Defense, Telecome, Automative, Banking etc. The Intelligent Energy Platform focus on achieving what they couldn't achieve in the last decades through unique a approach towards the whole complete cycle Listen, Understand, effect and Decide, through developing and design a subway map for the whole workflows across the whole industry value chain integrating all the data sources together, by studying and remapping the whole processes, answering key four questions for each process, activity and tasks who, where, what and why, empowered machine learning with algorithms that will achieve the automation through digitizing and standardizing over a cognitive environment. There are several key pillars to get the digital transformation journey successfully and smoothly happening from my experience in the field operations, engineering, business, marketing and sales; Know and be clear on the end goal, which the Intelligent Energy Platform will include; select the right team from all the key stakholders, felexible and adoptable to change during the journey, tackle the exact needs for every process, activity and tasks, the power to change and update the solution at any given time, strong learning system, etc. In addition there are complimentary and network tool which is empowering the Intelligent Energy Platform that will expedite and support the journey massively, which is an advanced Infinity unique communication tool which is empower by all disruptive technology that will allow as an example all field engineers and management to be in one free Infinity business communication ' chatting' constructive and organize powered by disruptive solution where an example the engineer in a field and the operations has stopped for spare parts, equipment, machine, tool, etc. so he/she will send a normal message over our Infinity chatting app through the mobile or tablet and automatically this app will do a quick research in the back system, and display where it's available if it's within the country in another field, company, workshop, hence the engineer will click on the intended target, then automatically will go to the right approvals to approve on fly though the mobile or tablet, this will impact the performance of the operations massively and drop the non-productive time heavily by 20-30% and generate new business revenue in which few companies who are not utilizing all there equipment can rent to other sister companies and get revenue out of instead of just being in the workshop without any useful usage or productivity, it won’t stop by that only but will go to the contracts, legal, HR, etc. After implementing the solution and look to our demand graph, this free, perfect and instant unique communication app will allow the company immediately to see huge improvement on organization resilience which will reduce the time taken for any such request mentioned above from months to few days, organization will be more efficient, reduce cost by millions and millions meanwhile generate new business revenue by millions a well, enhance service customers loyalty and experience, improve decision making process, safety and security. this will impact directly the consumer surplus where the consumers who will be in this case the engineers will be willing to pay the gap based on the market preference and also avoiding the dead loss where the company will be financially and operationally more efficient. Not only that also transforming on people how they are communication through exchanging quickly photos expressing what they want to say, getting the attention quickly, make things faster in terms of decision that need to be taken through friends, families, and sometimes business as well with limitation. Digital is the only recourse and last hope for this industry to get out of its repeated pitfalls in the last decade and Intelligent Energy Platform will allow the industry and the whole value chain to be effectively integrated, tackle all the needs and requirements through Listen, understand, effect and decide to achieve a significant results, generate new jobs and roles and also will allow the industry to upturn again quickly and be able to face the upcoming expected and unexpected crisis. It's clear that the big players in the Energy industry are struggling because of several reasons but the most important factor is the digital path and develop digital solutions and one of the main issues is setting the right expectation which is related to the organizations, expectation and the experience across the whole ecosystem such operators, partners, vendors, etc. our Intelligent Energy Platform is focus on introducing an end-to-end platform solution focus on organization resilience, integrated technology, and completely agile complement by free, profit and instant app such as an infinity unique secured communication app, sharing experience business app, that focus on getting more and more networks to attract thousands and thousands of users and regain the trust and loyalty again in the industry. The unique secured communication app within the Intelligent Energy Platform which is n-sided with the engineers, service companies, management and business team will be zero-price quite close to the YouTube approach in terms of pricing strategy where it will be connecting n-sided with zero price and when it will expand it might be with negative price as well in which will allow 2/ 3 sided and even more to attract more users within the industries and enhance the service loyalty and quality, achieve one of the complex objective organization reliance, optimize performance, decision making and turn to data drive organization successfully and smoothly. Developing the Intelligent energy platform will allow our team to lead the platform approach in the Energy industry differently through free, profit and instant approach which will attract huge number of users who are looking for opportunities to gain the trust, loyalty again and feel secured. this will upturn the companies not only to find their ways throught the right approach but creating and developing new jobs and roles across the whole industry accompaniment significant contribution to the market revenue and profit.
Styles APA, Harvard, Vancouver, ISO, etc.

Rapports d'organisations sur le sujet "Transformation automatique"

1

Taherizadeh, Amir, et Cathrine Beaudry. Vers une meilleure compréhension de la transformation numérique optimisée par l’IA et de ses implications pour les PME manufacturières au Canada - Une recherche qualitative exploratoire. CIRANO, juin 2021. http://dx.doi.org/10.54932/jdxb2231.

Texte intégral
Résumé :
Ce rapport présente les principaux résultats d’une étude qualitative exploratoire visant à examiner l’impact de l’intelligence artificielle (IA), en tant que technologie à usage général (TUG) sur la productivité et l’emploi à l’échelle de l’entreprise. À la suite de l’analyse de sources de données primaires et secondaires (comprenant 27 entretiens, rapports et discussions de groupe), nous établissons d’abord une échelle de maturité de l’adoption de l’IA et un classement des petites et moyennes entreprises (PME) qui intègrent l’IA dans leurs processus de travail en quatre archétypes : l’Aspirant, le Fonceur, le Leader et le Visionnaire. Nous définissons chaque archétype de façon à mettre en évidence les changements particuliers à opérer pour qu’une entreprise puisse passer à l’étape suivante de l’adoption de l’IA. Deuxièmement, nous définissons et examinons sept obstacles à l’adoption généralisée de l’IA par les PME manufacturières. Troisièmement, à l’aide de trois études de cas, nous explorons trois projets d’IA menés par des entreprises québécoises axées sur l’IA afin de montrer, d’une part, l’apport de l’intégration de l’apprentissage automatique (AA) aux produits et aux processus de travail sur le plan de la productivité des entreprises, et d’autre part son effet sur leurs effectifs. Dans l’ensemble, les résultats de notre étude suggèrent que la réussite de l’intégration de l’IA nécessite une transformation numérique au niveau de l’entreprise, que nous présentons comme un continuum. Dans les premières étapes, où l’adoption de l’IA se fait autour de projets (en particulier pour les entreprises des catégories Aspirant et Fonceur), les effectifs des entreprises ont tendance à augmenter parallèlement aux gains de productivité en même temps que le perfectionnement indispensable des compétences de la main-d’œuvre existante. En outre, lorsque l’IA est déployée à l’échelle de l’entreprise (chez les Leaders et les Visionnaires) et que cette dernière rehausse le niveau de ses activités d’innovation, on enregistre plutôt des pertes d’emploi parallèlement aux gains de productivité. Par la suite, nous introduisons des indicateurs indirects de l’omniprésence de l’IA, car nous estimons qu’il s’agit de mesures plus réalistes pour évaluer le taux d’adoption de l’IA par les PME en phase fluide. Enfin, nous proposons quatre recommandations qui ont des implications pour les chercheurs, les praticiens et les responsables politiques.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie