Добірка наукової літератури з теми "Encodage dynamique"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Encodage dynamique".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Encodage dynamique"

1

Horton, David. "Social deixis in the translation of dramatic discourse." Babel. Revue internationale de la traduction / International Journal of Translation 45, no. 1 (July 23, 1999): 53–73. http://dx.doi.org/10.1075/babel.45.1.05hor.

Повний текст джерела
Анотація:
Abstract Pronominal modes of address are an instance of the kind of structural incompatibility between languages which presents a considerable challenge to the translator. Indeed, they have been described as an "impossibility of translation" (Lyons). The structural contrast between English and most other European languages with regard to this feature has significant implications for literary translations, since address behaviour encodes social relations and thus functions as an important signal of unfolding interpersonal dynamics in texts. This article explores the implications of divergent address systems in the translation of dramatic discourse, using examples from French-English and English-German translation to illustrate the problems involved. In the first case, the absence of differentiated second-person pronouns in modern English means that other signals have to be found to encode the social dynamics of the text. In Sartre's subtle exploration of shifting human relations in Huis Clos/In Camera we witness a constant switching between the "tu" and "vous" forms of address as the characters seek to establish their roles. Translation into English inevitably results in a loss of explicitness and the introduction of alternative indices of interpersonal relations. In translation from English into German, on the other hand, as an analysis of Pinter's The Caretaker/Der Hausmeister demonstrates, selection between the "du" and "Sie"-forms becomes necessary, and a further level of differentiation is added to those available in the original. Here, pronominal choice presupposes a careful analysis of the dynamics of the text, and results in an explicitation of the attitudinal nuances of the original. In both cases, the process of translation implies a re-encoding based on the translator's individual conception of the source texts. The issue under discussion thus emerges as an archetypal feature of literary translation, showing how the latter manipulates texts by opening up some interpretive possibilities and closing down others. Résumé Les pronoms appellatifs sont un exemple du type de l'incompatibilité structurelle entre les langues qui représente un défi considérable pour le traducteur. En fait, ces pronoms ont été décrits comme une "impossibilité de traduction" (Lyons). Le contraste structurelle entre l'anglais et la plupart des autres langues européennes vis-à-vis de cet aspect a des implications significatives pour la traduction littéraire, car la façon de s'adresser encode des relations sociales et fonctionne donc comme un signal important d'ouverture des dynamiques interpersonnelles dans les textes. Cet article explore les implications des systèmes divergents d'appellation dans la traduction du discours dramatique, en utilisant des exemples de traduction français-anglais et anglais-allemand pour illustrer les problèmes. Dans le premier cas, l'absence de pronoms de la seconde personne différenciés dans l'anglais moderne signifie que d'autres signaux doivent être trouvés pour encoder la dynamique sociale du texte. Dans l'exploration subtile de Sartre des glissements de relations humaines dans Huis Clos (en anglais In Camera), nous sommes les témoins d'un transfert constant entre les formes d'abord "tu" et "vous", alors que les personnages cherchent à définir leurs rôles. La traduction vers l'anglais résulte inévitablement en une perte d'explicité et l'introduction d'indices alternatifs pour les relations interpersonnelles. Dans la traduction de l'anglais vers l'allemand, telle que le démontre une analyse de The Caretaker de Pinter (en allemand Der Hausmeister), le choix entre les formes de tutoiement et de vouvoiement devient nécessaire, et un niveau ultérieur de différenciation s'ajoute à ceux disponibles dans l'original. Ici le choix pronominal présuppose une analyse soigneuse de la dynamique du texte, et se conclut par une explicitation des nuances d'aptitude de l'original. Dans les deux cas, le processus de traduction implique un ré-encodage basée sur la conception individuelle du traducteur des textes sources. Le point discuté apparaît donc comme une caractéristique de type archétypal de la traduction littéraire, indiquant comment cette dernière manipule les textes en les ouvrant à certaines possibilités d'interprétation et en les fermant à d'autres.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Mason, Catharine, Cyril Vettorato, Anthony Okwara, Marianne Meslage, Loris Raimbault, Zoé Gémin, Francesca Quinn, and Véronique Truffot. "Code VOVA d’entextualisation de chansons." Cahiers de littérature orale 94 (2023): 155–208. http://dx.doi.org/10.4000/127v4.

Повний текст джерела
Анотація:
Résumé : Nous présentons ici un système de codification de phénomènes vocaux, verbaux et performatifs, complété par des normes de standardisation éditoriale à respecter pour l’entextualisation. Nous entendons par ce dernier terme une transcription encodée prenant en compte l’acte même d’énonciation (voir ci-dessous) des performances de chansons. Dans sa version actuelle, ce code répertorie soixante-et-un phénomènes qui peuvent relever des catégories de techniques vocales, d’énoncés verbaux, de dynamiques contextuelles de performance et d’aspects de formatage textuel. Ce travail vise à créer une visualisation bi-dimensionnelle, voire une modélisation, d’un événement singulier de performance qui s’avère dynamique, multimodal et complexe. Le document présenté comporte 20 entextualisations d’extraits de chansons dans 12 langues différentes, dont 7 langues autochtones, 1 langue pidgin et 5 langues standards.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Raoux, M., D. Cattaert, K. Leal Fischer, G. Cullot, and J. Lang. "CO-67: La réponse électrique biphasique des îlots encode leur dynamique sécrétoire." Diabetes & Metabolism 42 (March 2016): A20. http://dx.doi.org/10.1016/s1262-3636(16)30085-4.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

De Bovis, Camille, Caroline Hussler, and Anne-Sophie Barbe. "De l’idée du créatif à la production par le collectif." Revue Française de Gestion 47, no. 296 (April 2021): 165–91. http://dx.doi.org/10.3166/rfg.2021.00527.

Повний текст джерела
Анотація:
Comment le concepteur d’un artefact peut-il faire converger l’expression d’une routine vers la représentation qu’il a tenté d’y matérialiser ? L’étude ethnographique de la production de la première d’un opéra, met à jour trois mécanismes par lesquels il aligne les pratiques effectives des utilisateurs de son artefact et l’abstraction qu’il y encode. Les auteurs complètent ainsi notre connaissance des organisations créatives, en montrant comment le régisseur de scène, concepteur de la conduite d’opéra, révèle l’esprit d’une œuvre imaginée par un metteur en scène, tout en enrichissant le rôle des artefacts et de leurs concepteurs dans la dynamique des routines organisationnelles.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Crawford, Kate. "Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence." Perspectives on Science and Christian Faith 74, no. 1 (March 2022): 61–62. http://dx.doi.org/10.56315/pscf3-22crawford.

Повний текст джерела
Анотація:
ATLAS OF AI: Power, Politics, and the Planetary Costs of Artificial Intelligence by Kate Crawford. New Haven, CT: Yale University Press, 2021. 336 pages. Hardcover; $28.00. ISBN: 9780300209570. *Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence is Kate Crawford's analysis of the state of the AI industry. A central idea of her book is the importance of redefining Artificial Intelligence (AI). She states, "I've argued that there is much at stake in how we define AI, what its boundaries are, and who determines them: it shapes what can be seen and contested" (p. 217). *My own definition of AI goes something like this: I imagine a future where I'm sitting in a cafe drinking coffee with my friends, but in this future, one of my friends is a robot, who like me is trying to make a living in this world. A future where humans and robots live in harmony. Crawford views this definition as mythological: "These mythologies are particularly strong in the field of artificial intelligence, where the belief that human intelligence can be formalized and reproduced by machines has been axiomatic since the mid-twentieth century" (p. 5). I do not know if my definition of artificial intelligence can come true, but I am enjoying the process of building, experimenting, and dreaming. *In her book, she asks me to consider that I may be unknowingly participating, as she states, in "a material product of colonialism, with its patterns of extraction, conflict, and environmental destruction" (p. 38). The book's subtitle illuminates the purpose of the book: specifically, the power, politics, and planetary costs of usurping artificial intelligence. Of course, this is not exactly Crawford's subtitle, and this is where I both agree and disagree with her. The book's subtitle is actually Power, Politics, and the Planetary Costs of Artificial Intelligence. In my opinion, AI is more the canary in the coal mine. We can use the canary to detect the poisonous gases, but we cannot blame the canary for the poisonous gas. It risks missing the point. Is AI itself to be feared? Should we no longer teach or learn AI? Or is this more about how we discern responsible use and direction for AI technology? *There is another author who speaks to similar issues. In Weapons of Math Destruction, Cathy O'Neil states it this way, "If we had been clear-headed, we all would have taken a step back at this point to figure out how math had been misused ... But instead ... new mathematical techniques were hotter than ever ... A computer program could speed through thousands of resumes or loan applications in a second or two and sort them into neat lists, with the most promising candidates on top" (p. 13). *Both Crawford and O'Neil point to human flaws that often lead to well-intentioned software developers creating code that results in unfair and discriminatory decisions. AI models encode unintended human biases that may not evaluate candidates as fairly as we would expect, yet there is a widespread notion that we can trust the algorithm. For example, the last time you registered an account on a website, did you click the checkbox confirming that "yes, I read the disclaimer" even though you did not? When we click "yes" we are accepting this disclaimer and placing trust in the software. Business owners place trust in software when they use it to make predictions. Engineers place trust in their algorithms when they write software without rigorous testing protocols. I am just as guilty. *Crawford suggests that AI is often used in ways that are harmful. In the Atlas of AI we are given a tour of how technology is damaging our world: strip mining, labor injustice, the misuse of personal data, issues of state and power, to name a few of the concerns Crawford raises. The reality is that AI is built upon existing infrastructure. For example, Facebook, Instagram, YouTube, Amazon, TikTok have been collecting our information for profit even before AI became important to them. The data centers, CPU houses, and worldwide network infrastructure were already in place to meet consumer demand and geopolitics. But it is true that AI brings new technologies to the table, such as automated face recognition and decision tools to compare prospective employment applicants with diverse databases and employee monitoring tools that can make automatic recommendations. Governments, militaries, and intelligence agencies have taken notice. As invasion of privacy and social justice concerns emerge, Crawford calls us to consider these issues carefully. *Reading Crawford's words pricked my conscience, convicting me to reconsider my erroneous ways. For big tech to exist, to supply what we demand, it needs resources. She walks us through the many resources the technology industry needs to provide what we want, and AI is the "new kid on the block." This book is not about AI, per se; it is instead about the side effects of poor business/research practices, opportunist behavior, power politics, and how these behaviors not only exploit our planet but also unjustly affect marginalized people. The AI industry is simply a new example of this reality: data mining, low wages to lower costs, foreign workers with fewer rights, strip mining, relying on coal and oil for electricity (although some tech companies have made strides to improve sustainability). This sounds more like a parable about the sins of the tech industry than a critique about the dangers of AI. *Could the machine learning community, like the inventors of dynamite who wanted to simply help railroads excavate tunnels, be unintentionally causing harm? Should we, as a community, be on the lookout for these potential harms? Do we have a moral responsibility? Maybe the technology sector needs to look more inwardly to ensure that process efficiency and cost savings are not elevated as most important. *I did not agree with everything that Crawford classified as AI, but I do agree that as a community we are responsible for our actions. If there are injustices, then this should be important to us. In particular, as people of faith, we should heed the call of Micah 6:8 to act justly in this world, and this includes how we use AI. *Reviewed by Joseph Vybihal, Professor of Computer Science, McGill University, Montreal, PQ H3A 0G4.
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Encodage dynamique"

1

Huron, Samuel. "Constructive Visualization : A token-based paradigm allowing to assemble dynamic visual representation for non-experts." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112253/document.

Повний текст джерела
Анотація:
Durant les 20 dernières années, la recherche en visualisation d’informations (InfoVis) a permis l’émergence de nouvelles techniques et méthodes qui permettent d’assister l’analyse de données intensives pour la science, l’industrie, et les gouvernements. Cependant, la plupart de ces travaux de recherches furent orientés sur des données statiques pour des utilisateurs experts.Dernièrement, des évolutions technologique et sociétales ont eu pour effet de rendre les données de plus en plus dynamiques et accessibles pour une population plus diverse. Par exemple des flux de données tels que les emails, les mises à jours de statuts sur les réseaux sociaux, les flux RSS, les systèmes de gestion de versions, et bien d’autres. Ces nouveaux types de données sont utilisés par une population qui n’est pas forcément entraînée ou éduquée à utiliser des visualisations de données. La plupart de ces personnes sont des utilisateurs occasionnels, d’autres utilisent très souvent ces données dans leurs travaux. Dans les deux cas, il est probable que ces personnes n’aient pas reçu de formation formelle en visualisation de données.Ces changements technologiques et sociétaux ont généré une multitude de nouveaux défis, car la plupart des techniques de visualisations sont conçues pour des experts et des bases de données statiques. Peu d’études ont été conduites pour explorer ces défis. Dans ce rapport de thèse, j’adresse la question suivante : « Peut-­on permettre à des utilisateurs non­-experts de créer leur propre visualisation et de contribuer à l’analyse de flux de données ? »La première étape pour répondre à cette question est d’évaluer si des personnes non formées à la visualisation d’informations ou aux « data sciences » peuvent effectuer des tâches d’analyse de données dynamiques utiles, en utilisant un système de visualisation adapté pour supporter cette tâche. Dans la première partie de cette dissertation, je présente différents scénarios et systèmes, qui permettent à des utilisateurs non­-experts (de 20 à 300 ou 2000 à 700 000 personnes) d’utiliser la visualisation d’informations pour analyser des données dynamiques.Un autre problème important est le manque de principes génériques de design pour l’encodage visuel de visualisations d’informations dynamiques. Dans cette dissertation, je conçois, définis, et explore un espace de design pour représenter des donnés dynamiques pour des utilisateurs non­-experts. Cette espace de design est structuré par des jetons graphiques représentant des éléments de données qui permettent de construire dans le temps différentes visualisations, tant classiques que nouvelles.Dans cette thèse, je propose un nouveau paradigme de conception (design) pour faciliter la réalisation de visualisation d’informations par les utilisateurs non­-experts. Ce paradigme est inspiré par des théories établies en psychologie du développement, tout autant que par des pratiques passées et présentes de création de visualisation à partir d’objets tangibles. Je décris tout d’abord les composants et processus de bases qui structurent ce paradigme. Ensuite, j’utiliserai cette description pour étudier *si et comment* des utilisateur non­-experts sont capables de créer, discuter, et mettre à jour leurs propres visualisations. Cette étude nous permettra de réviser notre modèle précédent et de fournir une première exploration des phénomènes relatifs à la création d’encodages visuels par des utilisateurs non­-experts sans logiciel. En résumé, cette thèse contribue à la compréhension des visualisations dynamiques pour des utilisateurs non­-experts
During the past two decades, information visualisation (InfoVis) research has created new techniques and methods to support data- intensive analyses in science, industry and government. These have enabled a wide range of analyses tasks to be executed, with tasks varying in terms of the type and volume of data involved. However, the majority of this research has focused on static datasets, and the analysis and visualisation tasks tend to be carried out by trained expert users. In more recent years, social changes and technological advances have meant that data have become more and more dynamic, and are consumed by a wider audience. Examples of such dynamic data streams include e-mails, status updates, RSS 1 feeds, versioning systems, social networks and others. These new types of data are used by populations that are not specifically trained in information visualization. Some of these people might consist of casual users, while others might consist of people deeply involved with the data, but in both cases, they would not have received formal training in information visualization. For simplicity, throughout this dissertation, I refer to the people (casual users, novices, data experts) who have not been trained in information visualisation as non-experts.These social and technological changes have given rise to multiple challenges because most existing visualisation models and techniques are intended for experts, and assume static datasets. Few studies have been conducted that explore these challenges. In this dissertation, with my collaborators, I address the question: Can we empower non-experts in their use of visualisation by enabling them to contribute to data stream analysis as well as to create their own visualizations?The first step to answering this question is to determine whether people who are not trained in information visualisation and the data sciences can conduct useful dynamic analysis tasks using a visualisation system that is adapted to support their tasks. In the first part of this dissertation I focus on several scenarios and systems where different sized crowds of InfoVis non-experts users (20 to 300 and 2 000 to 700 000 people) use dynamic information visualisation to analyse dynamic data.Another important issue is the lack of generic design principles for the visual encoding of dynamic visualization. In this dissertation I design, define and explore a design space to represent dynamic data for non-experts. This design space is structured by visual tokens representing data items that provide the constructive material for the assembly over time of different visualizations, from classic represen- tations to new ones. To date, research on visual encoding has been focused on static datasets for specific tasks, leaving generic dynamic approaches unexplored and unexploited.In this thesis, I propose construction as a design paradigm for non-experts to author simple and dynamic visualizations. This paradigm is inspired by well-established developmental psychological theory as well as past and existing practices of visualisation authoring with tangible elements. I describe the simple conceptual components and processes underlying this paradigm, making it easier for the human computer interaction community to study and support this process for a wide range of visualizations. Finally, I use this paradigm and tangible tokens to study if and how non-experts are able to create, discuss and update their own visualizations. This study allows us to refine our previous model and provide a first exploration into how non-experts perform a visual mapping without software. In summary, this thesis contributes to the understanding of dynamic visualisation for non-expert users
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Berton, Chloé. "Sécurité des données stockées sur molécules d’ADN." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2024. http://www.theses.fr/2024IMTA0431.

Повний текст джерела
Анотація:
La quantité de données numériques produites dans le monde chaque année augmente exponentiellement et les supports actuels de stockage atteignent leurs limites. Dans ce contexte, le stockage de données sur molécules d'ADN est très prometteur. Stockant jusqu’à 10¹⁸ octets par gramme d'ADN pour une consommation d'énergie quasi nulle, il a une durée de vie 100 fois plus longue que les disques durs. Cette technologie de stockage étant en développement, il est opportun d’y intégrer nativement des mécanismes pour sécuriser les données. C’est l’objet de cette thèse. Notre première contribution est une analyse des risques de l’ensemble de la chaîne de stockage, qui nous a permis d’identifier des vulnérabilités des procédés numériques et biologiques, en termes de confidentialité, d’intégrité, de disponibilité et de traçabilité. Une seconde contribution est l’identification d’opérateurs élémentaires permettant des manipulations simples de l’ADN. Avec ceux-ci, nous avons développé notre troisième contribution, une solution de chiffrement DNACipher qui impose un déchiffrement biomoléculaire des molécules avant de pouvoir lire les données correctement. Cette solution, qui repose sur des enzymes, a nécessité le développement d’un codage des données numériques en séquences ADN appelée DSWE ; notre quatrième contribution. Cet algorithme respecte les contraintes liées aux procédés biologiques (e.g. homopolymères) et à notre DNACipher. Enfin, notre dernière contribution est une validation expérimentale de notre chaîne de stockage sécurisée. C’est la première preuve de concept montrant qu’il est possible de sécuriser ce nouveau support de stockage sur la base de manipulations biomoléculaires
The volume of digital data produced worldwide every year is increasing exponentially, and current storage solutions are reaching their limits. In this context, data storage on DNA molecules holds great promise. Storing up to 10¹⁸ bytes per gram of DNA for almost no energy consumption, it has a lifespan 100 times longer than hard disks. As this storage technology is still under development, the opportunity presents itself to natively integrate data security mechanisms. This is the aim of this thesis. Our first contribution is a risk analysis of the entire storage chain, which has enabled us to identify vulnerabilities in digital and biological processes, particularly in terms of confidentiality, integrity, availability and traceability. A second contribution is the identification of elementary biological operators for simple manipulations of DNA. Using these operators, we have developed a DNACipher encryption solution that requires biomolecular decryption (DNADecipher) of the molecules before the data can be read correctly. This third contribution, based on enzymes, required the development of a coding algorithm for digital data into DNA sequences, a contribution called DSWE. This algorithm respects the constraints of biological processes (e.g. homopolymers) and our encryption solution. Our final contribution is an experimental validation of our secure storage chain. This is the first proof of concept showing that it is possible to secure this new storage medium using biomolecular manipulations
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії