Academic literature on the topic 'Compréhension de code'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Compréhension de code.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Compréhension de code"

1

AZZOUG, Omar. "Notes on Algerian EFL Classroom Conversation : Towards a Systemic Functional Linguistic Strategy." Revue plurilingue : Études des Langues, Littératures et Cultures 3, no. 1 (November 15, 2019): 80–91. http://dx.doi.org/10.46325/ellic.v3i1.44.

Full text
Abstract:
Abstract This paper deals mainly with the influence of code switching on the comprehension and the lexical acquisition of EFL learners. It aims at determining that code switching, which is considered as a social phenomenon, can be used as a learning strategy that enhances the English language learning. To reach this end, two questionnaires have been administered to fifty four students and ten teachers, respectively, at the department of English at Tlemcen University. The analysis of the findings shows that code switching develops the learners‟ language skills and improves the understanding of the students. Besides, code switching helps the teachers in conveying the meaning easily. As a result, language shift in EFL classrooms ameliorates the learning and it can be an efficient learning strategy if rationally used. Résumé Cet article traite principalement l'influence de l'alternance codique sur la compréhension et l'acquisition lexicale des apprenants algériens de la langue anglaise. Son objectif est de déterminer que le changement de code, considéré comme un phénomène social, peut être utilisé comme une stratégie d'apprentissage qui améliore l'apprentissage de la langue anglaise. À cette fin, deux questionnaires ont été distribués à cinquante-quatre étudiants et dix enseignants, respectivement, au département d'anglais de l'Université de Tlemcen. L'analyse des résultats montre que le changement de code développe les compétences linguistiques des apprenants et améliore la compréhension de ceux-ci. En outre, la commutation de code aide les enseignants à transmettre facilement le sens. En conséquence, le changement de langue dans les classes d'anglais langue seconde améliore l'apprentissage et constitue une stratégie d'apprentissage efficace en cas d'utilisation rationnelle.
APA, Harvard, Vancouver, ISO, and other styles
2

Joannidès, Roxane. "Analyse critique de dispositifs d’enseignement de l’orthographe et propositions didactiques." Le français aujourd'hui N° 223, no. 4 (December 11, 2023): 89–97. http://dx.doi.org/10.3917/lfa.223.0089.

Full text
Abstract:
Face au déclin du niveau orthographique attesté dans plusieurs recherches récentes, et alors que la maitrise de l’orthographe représente un enjeu socioprofessionnel fort, la nécessité de renouveler son enseignement s’impose. Après une présentation des enjeux de cette baisse du niveau et, parmi les causes, les limites des pratiques traditionnelles d’enseignement, l’article propose un état des lieux non exhaustif de nouveaux dispositifs de formation, puis décrit les fondements sur lesquels s’est construite une approche de l’orthographe, en particulier fondée sur la compréhension du code orthographique.
APA, Harvard, Vancouver, ISO, and other styles
3

Kimmel, David, and Daniel J. Robinson. "Sex, Crime, Pathology: Homosexuality and Criminal Code Reform in Canada, 1949–1969." Canadian journal of law and society 16, no. 1 (April 2001): 147–65. http://dx.doi.org/10.1017/s082932010000661x.

Full text
Abstract:
RésuméCet article examine les processus légaux, politiques et sociaux qui ont abouti à la décriminalisation de l'homosexualité au Canada, en 1969. Même s'il explore l'activisme gai, les développements internationaux, la libéralisation des attitudes sociales, et les anomalies du code criminel de l'époque, l'article se concentre surtout sur la reconceptualisation de la vision juridico-pénale de l'homosexualité vers une conception médico-scientifique et sur l'impact de ce changement sur l'éventuelle décriminalisation. Dans ce cadre, une approche foucaldienne est employée pour illustrer de quelle façon l'évolution du discours psychiatrique sur l'homosexualité a affecté la compréhension sociale et légale de l'attraction entre personnes du même sexe, de la Deuxième guerre mondiale jusqu'aux années 1970. Alors que psychiatres et psychologues étendaient leur expertise à la zone des pratiques et des identités sexuelles, ils ont fourni aux réformateurs et aux parlementaires un cadre interprétatif de l'homosexualité dissocié de l'aspect criminel. Malgré sa légalisation partielle, en 1969, l'homosexualité demeura longtemps associée à une activité pathologique, nécessitant une présence «gouvernante» continue dans les chambres à coucher de la nation, et ce pendant plusieurs années.
APA, Harvard, Vancouver, ISO, and other styles
4

Stawniak, Henryk. "Uprawnienie-obowiązek zrodzenia i wychowania potomstwa w świetle kanonicznego prawa małżeńskiego." Prawo Kanoniczne 32, no. 3-4 (December 10, 1989): 125–42. http://dx.doi.org/10.21697/pk.1989.32.3-4.05.

Full text
Abstract:
L’article a pour objet de présenter le droit - devoir de procréer et d’éduquer la progéniture à la lumière de la discipline ecclésiastique, à commencer par le Code de 1917, d’indiquer les étapes les plus importantes du développement, de la maturation et de certaines déviations dans la compréhension du problème à l’époque située entre les Codes, pour enfin démontrer la réglementation juridique contemporaine. La réflexion fournit la réponse aux questions détaillées qui surgissent lors de l’analyse des normes contemporaines: la succession des biens cités, d’abord le bien des époux, ensuilte le bien de la progéniture, a-t-elle un sens? Est-ce une dépréciation de' la dignité de la procréation? En outre, un caractère plus communautaire et plus personnaliste du mariage a-t-il un lien avec la conception du problème de l’éducation des enfants? Les réflexions démontrent une certaine évolution du problème et soulignent l’importance de la collaboration de caractère social dans l’activité de l’éducation.
APA, Harvard, Vancouver, ISO, and other styles
5

Morin, Christine, Frédéric Levesque, and Louis Turgeon-Dorion. "L’article 48 de la Charte québécoise et le Code civil du Québec pour contrer l’exploitation de la personne âgée : pour une lecture harmonieuse." Revue générale de droit 46 (April 19, 2016): 51–97. http://dx.doi.org/10.7202/1036160ar.

Full text
Abstract:
L’article 48 de la Charte des droits et libertés de la personne protège toute personne âgée ou toute personne handicapée contre l’exploitation. Après avoir été ignoré pendant un certain temps, le texte de loi fait maintenant couler beaucoup d’encre, particulièrement sur sa relation avec le Code civil du Québec. Plusieurs auteurs, dont certains se consacrent principalement à l’étude des droits et libertés de la personne alors que d’autres concentrent leurs recherches en droit civil, se sont interrogés sur les interactions entre ces deux lois. Il existe une division entre les approches de ces auteurs, dont les causes sont parfois, selon les auteurs du présent article, davantage symboliques que juridiques. Nous souhaitons donc exposer notre compréhension de l’harmonie qui existe entre la Charte québécoise et le Code civil en matière de protection juridique des personnes aînées. Il s’agit là d’une conception renouvelée à la lumière de la jurisprudence des 30 dernières années, d’un retour sur l’historique de l’adoption de la Charte des droits et libertés de la personne, d’une étude décloisonnée de mécanismes de protection prévus par le Code civil et d’une incursion en droit comparé.
APA, Harvard, Vancouver, ISO, and other styles
6

Henry, Jean-Pierre. "Peut-on comprendre les mécanismes de la perception ?" médecine/sciences 38, no. 2 (February 2022): 191–97. http://dx.doi.org/10.1051/medsci/2022004.

Full text
Abstract:
La perception est la compréhension des informations que les organes sensoriels envoient au cerveau. Visuelles, elles sont transmises au cortex visuel dans le lobe occipital. L’imagerie par résonance magnétique montre que cette information est traitée dans le cortex temporal. Deux exemples seront discutés dans cette revue : la reconnaissance des mots écrits, et celle des visages. Dans le premier cas, une hypothèse, la hiérarchie de la combinaison de détecteurs locaux, explique les propriétés d’invariance de la forme des lettres. Dans le second, le code utilisé dans le cerveau du singe macaque pour reconnaître les visages a été déchiffré : à partir de l’activité électrique de 200 neurones du cortex temporal inférieur, il est en effet possible à un singe de connaître le visage qui lui a été présenté.
APA, Harvard, Vancouver, ISO, and other styles
7

Mamavi, Olivier, and Romain Zerbib. "La compétition entre pairs sur les plateformes collaboratives : un levier d’acquisition du statut d’expert." Innovations N° 73, no. 1 (January 16, 2024): 57–81. http://dx.doi.org/10.3917/inno.pr2.0160.

Full text
Abstract:
Les plateformes collaboratives sont devenues des dispositifs incontournables pour résoudre des problèmes, partager des expériences et développer des compétences. En s’appuyant sur une approche sociomatérielle, l’objectif de cette étude est d’expliquer comment ces plateformes parviennent à produire des experts reconnus. À partir d’une expérimentation sur la plateforme Management & Datascience, nous observons l’organisation de challenges numériques. Nous testons l’impact des propriétés technologiques en proposant un modèle d’équations structurelles. Les résultats soulignent l’influence de la sociomatérialité des plateformes dans la recherche d’un statut d’expert. Ils révèlent que les relations fondées sur la compétition ont un effet de médiation partiel entre les affordances numériques et l’acquisition d’une expertise. Ces résultats apportent la preuve empirique de l’impact de la compétition entre pairs dans le processus d’acquisition du statut d’expert. L’étude contribue à la littérature en enrichissant la compréhension du rôle joué par les interactions sociales au sein des plateformes collaboratives. Code JEL : L86
APA, Harvard, Vancouver, ISO, and other styles
8

Stawniak, Henryk. "Jedność i nierozerwalność małżeństwa." Prawo Kanoniczne 34, no. 1-2 (June 5, 1991): 103–20. http://dx.doi.org/10.21697/pk.1991.34.1-2.07.

Full text
Abstract:
L’unité et l’indissolubilité du mariage, conformément au can. 1056 du Code de Droit canon, prennent une valeur importante du fait du sacrement. Cette étude attire l’attention sur des prémisses qui-justifient ces propriétés en particulier sur la base de la conception conciliaire du mariage; elle est surtout une tentative qui veut répondre à la question suivante: „pourquoi et en quel sens prennent — elles une importance particulière par suite du caractère sacramentel du mariage?”. L’article, en outre, veut exposer leur valeur dynamique (en général, les articles se concentrent sur leur dimension statique, la loi, qu’il s’agit de conserver), car l’unité et l’indissolubilité sont des éléments créateurs de communauté, facilitent le développement individuel des personnes, stimulent la responsabilité et fournissent la chance de pouvoir créer des communautés de ,,l’Église domestique”. La véritable compréhension de l’unité et de l’indissolubilité du mariage permet de les considérer non pas comme des fardeaux qui encombrent la vie conjugale, mais comme une promotion du développement des personnes et de la communauté.
APA, Harvard, Vancouver, ISO, and other styles
9

Bélanger, André, and Ghislain Tabi Tabi. "Vers un repli de l’individualisme contractuel ? L’exemple du cautionnement." Les Cahiers de droit 47, no. 3 (April 12, 2005): 429–74. http://dx.doi.org/10.7202/043894ar.

Full text
Abstract:
L’étude qui suit porte sur le contrat de cautionnement, considéré dans son environnement social, économique et juridique qui ne permet plus de l’aborder sous l’angle du volontarisme contractuel tel qu’il a été reconduit dans le Code civil du Québec. Elle a pour objet de permettre la reconsidération du rôle sociétal du contrat et de l’importance de la coopération des parties dans le contexte de la formation et de l’exécution du cautionnement, et ce, dans la mesure où il ne paraît plus raisonnable de stimuler la recherche d’équilibre entre les parties au contrat en considérant avant toute chose les besoins du crédit, la moralité contractuelle et la responsabilisation des cautions. Tant le contexte dans lequel la majorité des cautions inexpérimentées s’engagent que la forme de contrat d’adhésion sous laquelle est généralement présenté le cautionnement perturbent la compréhension de la caution quant à la nature de son engagement. Par conséquent, une « recompréhension » moins libérale et individualiste de cet acte normatif doit être envisagée.
APA, Harvard, Vancouver, ISO, and other styles
10

Labrecque, Marc-André. "COMMENTAIRES RELATIFS AUX PRINCIPALES RÈGLES RÉGISSANT LA TRANSITION DES SOCIÉTÉS CIVILES, DES SOCIÉTÉS EN NOM COLLECTIF ET DES SOCIÉTÉS EN COMMANDITE DU CODE CIVIL DU BAS CANADA AU CODE CIVIL DU QUÉBEC." Revue du notariat 102, no. 2 (May 24, 2018): 295–311. http://dx.doi.org/10.7202/1046153ar.

Full text
Abstract:
L’effet de l’application du régime transitoire sur le statut juridique des sociétés existantes crée beaucoup de confusion ainsi qu’une certaine insécurité dans le milieu économique, mais surtout dans la communauté juridique. L’article 115 de la Loi sur l’application de la réforme du Code civil régit la transition des sociétés civiles de l’ancien au nouveau Code. Cet article a d’abord transformé les sociétés civiles existantes le 1er janvier 1994 en sociétés en nom collectif. Il les a obligé ensuite à se déclarer, entre le 1er janvier 1994 et le 1er janvier 1995, en vertu de la Loi sur la publicité légale des entreprises, des sociétés et des personnes morales. Celles qui se sont conformées à cette obligation dans le délai prévu par la loi ont conservé leur forme juridique. Les autres sont devenues des sociétés en participation, en plus d’être passibles des sanctions pénales prévues par la Loi sur la publicité légale. L’article 118 de la Loi d’application réglemente le passage des sociétés en nom collectif ou en commandite de l’ancien au nouveau système. Il prévoit que celles qui étaient en défaut de se déclarer en vertu du Code civil du Bas Canada et de la Loi sur les déclarations des compagnies et sociétés, deviennent des sociétés en participation, à défaut de s’immatriculer conformément à la Loi sur la publicité légale entre le 1er janvier 1994 et le 1er janvier 1995. À l’opposé, celles qui s’étaient conformées à l’obligation de publicité légale imposée par le droit antérieur conservent leur forme juridique, même si elles se déclarent après le 1er janvier 1995. Elles sont cependant passibles des sanctions pénales établies par la Loi sur la publicité légale. La compréhension du régime transitoire applicable aux sociétés de personnes qui existaient lors de l’entrée en vigueur du Code civil du Québec nécessite une vision globale des règles pertinentes. L’incertitude et la confusion découlant de l’interprétation des articles 115 et 118 de la Loi d’application ont été amplifiées par un jugement rendu par la Cour supérieure en 1998.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Compréhension de code"

1

Moretti, Eric. "Conception et mise en oeuvre d'un système informatique de compréhension de code exécutable." Paris 11, 2005. http://www.theses.fr/2005PA112018.

Full text
Abstract:
L'objectif de cette étude est la compréhension de codes exécutables de machines à l'aide d'un système informatique essentiellement automatique. La " compréhension " signifie ici la description des codes exécutables dans un langage plus intelligible pour l'opérateur humain : si le langage cible est un tangage de programmation, on parle alors de décompilation. L'obtention du code source des programmes à partir de leur code exécutable accroît l'expressivité des programmes, ce qui rend plus facile la vérification des propriétés qu'ils sont supposés posséder. Par la décompilation il ne s'agît pas exclusivement de retrouver les informations perdues lors de la compilation, mais il s'agit aussi d'extraire d'autres informations qui ne sont accessibles qu'au niveau machine. Fondamentalement, le principal aboutissement de cette étude est une avancée dans la théorie de la décompilation : Pour l'interprétation de programmes machines nous présentons un langage assembleur générique, potentiellement capable de décrire les programmes de n'importe quel microprocesseur classique. De plus, nous avons généralisé les algorithmes d'analyse de flots de contrôle pour ne plus effectuer la structuration des graphes par des méthodes empiriques, jusque-là basées sur la recherche de formes connues. Nous avons aussi affiné les techniques d'analyse de flots de données, en adaptant des méthodes d'inférence de types afférentes au domaine de la compilation et en les exploitant dans les algorithmes de propagation des données. La théorie que nous avons développé a fait continuellement l'objet d'un déploiement sur un décompilateur prototype dédié à l'analyse de logiciels temps-réel embarqués industriels
The purpose of this study is the understanding of machine codes, using a computer system able to work automatically to a large extent. Here, "comprehension" means description of machine codes in another language which is more comprehensible for a human operator : When the choosed target language is a programming language, this transformation is named decompilation. Production of source code from machine code improves the expressiveness of the programs, giving representations that are suited during the verification process of the expected program properties. Decompilation is not only assumed to permit the recovery of information lost during the program compilation process, but it is also intended to extract a kind of information that is exclusively available at the machine level. Fundamentally, the main outcome of this study is a progress in the field of decompilation theory : Concerning the interpretation of machine codes, we present a generic assembly language, potentially suited for the description of machine programs on any target microprocessor or microcontroller. We also present a generalization of the control-flow analysis algorithms, to avoid graph structuring with the usual empirical methods that rely on pattern-matching of specific cases. Furthermore, we have extended the capabilities of the data-flow analysis techniques, by adapting type inference methods derived from the compilation theory and exploiting them within data propagation algorithms. At all significant stage of this study, our theory has been deployed and tested on a decompiler prototype dedicated to the analysis of industrial embedded real-time software
APA, Harvard, Vancouver, ISO, and other styles
2

Jarrige, Domitille. "Déchiffrer le "code OPR" pour une meilleure compréhension du rôle physiologique des protéines OPR." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS632.

Full text
Abstract:
À la suite de l’endosymbiose, le génome chloroplastique a rétréci et dépend maintenant du génome nucléaire pour son expression. Chez Chlamydomonas reinhardtii, les protéines Octotricopeptide repeat (OPR), codées dans le noyau, contrôlent l’expression d’ARNm chloroplastiques spécifiques. La répétition OPR est un motif dégénéré de 38 acides aminés, qui forme un tandem d’hélices α antiparallèles qui lient l’ARN. Une répétition OPR est prédite pour interagir avec un nucléotide spécifique grâce à des résidus variables à des positions précises. La succession de répétitions permet aux protéines OPR de se lier à une séquence donnée. En partant d’un « code OPR » théorique, j’ai cherché à étudier cette spécificité de reconnaissance. J’ai mute in vivo les cibles chloroplastiques de facteurs OPR pour empêcher l’interaction OPR/ARN, puis j’ai tenté de la restaurer en mutant les résidus conférant la spécificité dans les répétitions correspondantes. Étonnamment, les interactions OPR/ARN sont très résilientes, ce qui a complétement changé notre vision de ces interactions in vivo. Des études fonctionnelles complémentaires que j’ai réalisées sur les facteurs OPR MDB1 and MTHI1 ont révélé que l’expression des gènes chloroplastiques dépend probablement de systèmes de facteurs nucléaires. En coopérant ces facteurs auraient une affinité combinée plus forte et seraient ainsi plus résilients
Following endosymbiosis, the chloroplast genome shrunk and became reliant on the host genome for its expression. In Chlamydomonas reinhardtii, Octotricopeptide repeat proteins (OPR), encoded in the nucleus, control the expression of a specific organellar mRNA. The OPR repeat is a degenerate motif of 38 amino-acids, folding into a tandem of antiparallel α-helices which can bind to RNA. An individual OPR repeat is predicted to interact with one given nucleotide thanks to specificity-conferring residues at defined positions within the repeat. OPR proteins contain tracks of successive OPR motifs, thus they can bind to a specific RNA “target” sequence and act on it. I aimed to study this specificity, called the “OPR code”, starting with a draft code based on known OPR protein/mRNA couples. I mutated in vivo the chloroplast targets of some OPR factors to disrupt the OPR/RNA interaction, and then tried to restore it by mutating the specificity-conferring residues in the corresponding repeats. Surprisingly, OPR/RNA interactions seem very resilient, challenging our view of how the specificity is established in vivo. Complementary functional studies that I performed on the OPR factors MDB1 and MTHI1 revealed that chloroplast gene expression might rely on complex networks of nuclear factors. By cooperating those putative systems would be both more specific and more resilient
APA, Harvard, Vancouver, ISO, and other styles
3

Duruisseau, Mickaël. "Améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I042/document.

Full text
Abstract:
Les développeurs occupent une place prépondérante dans le développement logiciel. Dans ce cadre, ils doivent réaliser une succession de tâches élémentaires (analyse, codage, liaison avec le code existant...), mais pour effectuer ces tâches, un développeur doit régulièrement changer de contexte de travail (recherche d’information, lecture de code…) et analyser du code qui n’est pas le sien. Ces actions nécessitent un temps d’adaptation élevé et réduisent l’efficacité du développeur. La modélisation logicielle est une solution à ce type de problème. Elle propose une vue abstraite d’un logiciel, des liens entre ses entités ainsi que des algorithmes utilisés. Cependant, l’Ingénierie Dirigée par les Modèles (IDM) est encore trop peu utilisée en entreprise. Dans cette thèse, nous proposons un outil pour améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs. Cet outil se nomme VisUML et est centré sur l’activité principale de codage du développeur. VisUML fournit des vues (sur des pages web ou sur des outils de modélisation) synchronisées avec le code. Les diagrammes UML générés sont interactifs et permettent une navigation rapide avec et dans le code. Cette navigation réduit les pertes de temps et de contextes dues aux changements d’activités en fournissant à tout moment une vue abstraite sous forme de diagramme des éléments actuellement ouverts dans l’outil de codage du développeur. Au final, VisUML a été évalué par vingt développeurs dans le cadre d’une expérimentation qualitative de l’outil afin d’estimer l’utilité d’un tel outil
Developers dominate in software development. In this context, they must perform a succession of elementary tasks (analysis, coding, linking with existing code ...), but in order to perform these tasks, a developer must regularly change his context of work (search information, read code ...) and analyze code that is not his. These actions require a high adaptation time and reduce the efficiency of the developer. Software modeling is a solution to this type of problem. It offers an abstract view of a software, links between its entities as well as algorithms used. However, Model-Driven Engineering (MDE) is still underutilized in business. In this thesis, we propose a tool to improve the understanding of a program using dynamic and interactive diagrams. This tool is called VisUML and focuses on the main coding activity of the developer. VisUML provides views (on web pages or modeling tools) synchronized with the code.The generated UML diagrams are interactive and allow fast navigation with and in the code. This navigation reduces the loss of time and context due to activity changes by providing at any time an abstract diagram view of the elements currently open in the developer’s coding tool. In the end, VisUML was evaluated by twenty developers as part of a qualitative experimentation of the tool to estimate the usefulness of such a tool
APA, Harvard, Vancouver, ISO, and other styles
4

Noureddine, Adel. "Vers une meilleure compréhension de la consommation énergétique des systèmes logiciels." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2014. http://tel.archives-ouvertes.fr/tel-00961346.

Full text
Abstract:
Avec l'augmentation de l'utilisation des ordinateurs et des appareils mobiles, et la hausse du prix de l'électricité, la gestion énergétique des logiciels est devenue une nécessité pour des logiciels, appareils et services durables. La consommation énergétique augmente dans les technologies informatiques, notamment à cause de l'augmentation de l'utilisation des services web et distribuée, l'informatique dans les nuages, ou les appareils mobiles. Par conséquent, des approches de gestion de l'énergie ont été développées, de l'optimisation du code des logiciels, à des stratégies d'adaptation basées sur l'utilisation des ressources matérielles. Afin de répondre à ces lacunes, nous présentons dans cette thèse, des modèles énergétiques, approches et outils pour estimer fidèlement la consommation énergétique des logiciels, au niveau de l'application, et au niveau du code, et pour inférer le modèle d'évolution énergétique des méthodes basé sur leurs paramètres d'entrées. Nous proposons aussi Jalen et Jalen Unit, des frameworks énergétiques pour estimer la consommation énergétique de chaque portion de code de l'application, et pour inférer le modèle d'évolution énergétique des méthodes en se basant sur des études et expériences empiriques. En utilisant des modèles énergétiques et d'outils d'estimations logicielles, nous pouvons proposer des informations énergétiques précises sans avoir besoin de wattmètres ou d'investissement de matériels de mesures énergétiques. Les informations énergétiques que nous proposons, offrent aussi aux approches de gestion énergétique des mesures directes et précises pour leurs approches d'adaptations et d'optimisations énergétiques. Ces informations énergétiques établissent aussi un modèle d'évolution énergétique des logiciels en se basant sur leurs paramètres d'entrées. Cela offre aux développeurs une connaissance plus profonde sur l'efficacité énergétique dans les logiciels. Cette connaissance amènera les développeurs à choisir un certain code au lieu d'un autre en se basant sur son efficacité énergétique. Les expérimentations utilisant l'implémentation de nos modèles énergétiques offrent des informations importantes sur comment et où l'énergie est consommée dans les logiciels. Plus particulièrement, nous proposons des comparaisons empiriques des langages de programmation (LP), des implémentations d'algorithmes, du coût de l'utilisation d'une machine virtuelle dans les LP, des options des compilateurs, et des primitives d'entrées/sorties. Nos outils permettent aussi de détecter les hotspots énergétiques dans les logiciels, permettant ainsi de focaliser sur les principaux endroits où davantage d'études sont nécessaires pour l'optimisation énergétique. Finalement, nous démontrons comment notre framework d'étude empirique permet de détecter les modèles d'évolution énergétique en se basant sur les stratégies d'évolution des paramètres d'entrées. Grâce à notre contribution, nous visons d'évoluer la connaissance dans le domaine de la consommation énergétique dans les logiciels, en proposant des modèles, des approches et des outils pour mesurer avec précision la consommation énergétique à des grains plus fins. En un mot, nous avons construit un microscope logiciel et énergétique, et avons mener des expérimentations afin de comprendre comment l'énergie est consommée dans les logiciels, et les chemins à prendre pour produire des logiciels optimisés énergétiquement.
APA, Harvard, Vancouver, ISO, and other styles
5

Ieva, Carlo. "Révéler le contenu latent du code source : à la découverte des topoi de programme." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS024/document.

Full text
Abstract:
Le développement de projets open source à grande échelle implique de nombreux développeurs distincts qui contribuent à la création de référentiels de code volumineux. À titre d'exemple, la version de juillet 2017 du noyau Linux (version 4.12), qui représente près de 20 lignes MLOC (lignes de code), a demandé l'effort de 329 développeurs, marquant une croissance de 1 MLOC par rapport à la version précédente. Ces chiffres montrent que, lorsqu'un nouveau développeur souhaite devenir un contributeur, il fait face au problème de la compréhension d'une énorme quantité de code, organisée sous la forme d'un ensemble non classifié de fichiers et de fonctions.Organiser le code de manière plus abstraite, plus proche de l'homme, est une tentative qui a suscité l'intérêt de la communauté du génie logiciel. Malheureusement, il n’existe pas de recette miracle ou bien d’outil connu pouvant apporter une aide concrète dans la gestion de grands bases de code.Nous proposons une approche efficace à ce problème en extrayant automatiquement des topoi de programmes, c'est à dire des listes ordonnées de noms de fonctions associés à un index de mots pertinents. Comment se passe le tri? Notre approche, nommée FEAT, ne considère pas toutes les fonctions comme égales: certaines d'entre elles sont considérées comme une passerelle vers la compréhension de capacités de haut niveau observables d'un programme. Nous appelons ces fonctions spéciales points d’entrée et le critère de tri est basé sur la distance entre les fonctions du programme et les points d’entrée. Notre approche peut être résumée selon ses trois étapes principales : 1) Preprocessing. Le code source, avec ses commentaires, est analysé pour générer, pour chaque unité de code (un langage procédural ou une méthode orientée objet), un document textuel correspondant. En outre, une représentation graphique de la relation appelant-appelé (graphe d'appel) est également créée à cette étape. 2) Clustering. Les unités de code sont regroupées au moyen d’une classification par clustering hiérarchique par agglomération (HAC). 3) Sélection du point d’entrée. Dans le contexte de chaque cluster, les unités de code sont classées et celles placées à des positions plus élevées constitueront un topos de programme.La contribution de cette thèse est triple: 1) FEAT est une nouvelle approche entièrement automatisée pour l'extraction de topoi de programme, basée sur le regroupement d'unités directement à partir du code source. Pour exploiter HAC, nous proposons une distance hybride originale combinant des éléments structurels et sémantiques du code source. HAC requiert la sélection d’une partition parmi toutes celles produites tout au long du processus de regroupement. Notre approche utilise un critère hybride basé sur la graph modularity et la cohérence textuelle pour sélectionner automatiquement le paramètre approprié. 2) Des groupes d’unités de code doivent être analysés pour extraire le programme topoi. Nous définissons un ensemble d'éléments structurels obtenus à partir du code source et les utilisons pour créer une représentation alternative de clusters d'unités de code. L’analyse en composantes principales, qui permet de traiter des données multidimensionnelles, nous permet de mesurer la distance entre les unités de code et le point d’entrée idéal. Cette distance est la base du classement des unités de code présenté aux utilisateurs finaux. 3) Nous avons implémenté FEAT comme une plate-forme d’analyse logicielle polyvalente et réalisé une étude expérimentale sur une base ouverte de 600 projets logiciels. Au cours de l’évaluation, nous avons analysé FEAT sous plusieurs angles: l’étape de mise en grappe, l’efficacité de la découverte de topoi et l’évolutivité de l’approche
During the development of long lifespan software systems, specification documents can become outdated or can even disappear due to the turnover of software developers. Implementing new software releases or checking whether some user requirements are still valid thus becomes challenging. The only reliable development artifact in this context is source code but understanding source code of large projects is a time- and effort- consuming activity. This challenging problem can be addressed by extracting high-level (observable) capabilities of software systems. By automatically mining the source code and the available source-level documentation, it becomes possible to provide a significant help to the software developer in his/her program understanding task.This thesis proposes a new method and a tool, called FEAT (FEature As Topoi), to address this problem. Our approach automatically extracts program topoi from source code analysis by using a three steps process: First, FEAT creates a model of a software system capturing both structural and semantic elements of the source code, augmented with code-level comments; Second, it creates groups of closely related functions through hierarchical agglomerative clustering; Third, within the context of every cluster, functions are ranked and selected, according to some structural properties, in order to form program topoi.The contributions of the thesis is three-fold:1) The notion of program topoi is introduced and discussed from a theoretical standpoint with respect to other notions used in program understanding ;2) At the core of the clustering method used in FEAT, we propose a new hybrid distance combining both semantic and structural elements automatically extracted from source code and comments. This distance is parametrized and the impact of the parameter is strongly assessed through a deep experimental evaluation ;3) Our tool FEAT has been assessed in collaboration with Software Heritage (SH), a large-scale ambitious initiative whose aim is to collect, preserve and, share all publicly available source code on earth. We performed a large experimental evaluation of FEAT on 600 open source projects of SH, coming from various domains and amounting to more than 25 MLOC (million lines of code).Our results show that FEAT can handle projects of size up to 4,000 functions and several hundreds of files, which opens the door for its large-scale adoption for program understanding
APA, Harvard, Vancouver, ISO, and other styles
6

Caserta, Pierre. "Analyse statique et dynamique de code et visualisation des logiciels via la métaphore de la ville : contribution à l'aide à la compréhension des programmes." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00790056.

Full text
Abstract:
Ce travail s'inscrit dans le cadre des recherches menées autour de l'analyse et la visualisation des logiciels, notamment les logiciels à objets, et en particulier Java. Très brièvement, on peut dire que le but de cette thèse revient à tenter de répondre à une question fondamentale: comment faire pour faciliter la compréhension du logiciel par ses développeurs et concepteurs ? Ce travail de recherche est basé en grande partie sur deux axes principaux. Le premier consiste à analyser l'exécution des programmes, non seulement au niveau de la méthode, mais bien au niveau du bloc de base, pour recueillir des données d'exécutions avec un maximum de précision comme par exemple les différents types d'instances sur les sites d'appels. Le second axe considère l'utilisation des informations apportées par notre analyse dynamique de l'exécution pour permettre la visualisation de ces données. En effet, ces informations offrent des détails intéressants sur le fonctionnement du programme et aident à expliquer le comportement du logiciel, aussi bien pour déceler les problèmes de performance que les problèmes de codages. Nous proposons une technique souple et efficace qui effectue une analyse dynamique de l'exécution de programmes Java. Nous introduisons ainsi une nouvelle technique et un nouvel outil permettant de recueillir des informations encore non proposées par d'autres analyseurs. Cette approche trace l'exécution précise des programmes tout en ayant une baisse des performances d'exécution acceptable, laissant le programme final utilisable. De plus, nous proposons et expérimentons une approche basé sur la visualisation des relations au sein d'une représentation du logiciel par une métaphore de ville. Nous introduisons une nouvelle technique de représentation des relations nommée "3D Hierarchical Edge Bundles" qui est basée sur une représentation 2D existante nommée "Hierarchical Edge Bundles". Cette approche conserve la puissance de visualisation du logiciel offerte par la métaphore de la ville tout en ajoutant la représentation des relations, et cela d'une façon lisible. Ces travaux sont validés entre autres par le développement d'un outil d'analyse nommé VITRAIL JBInsTrace et d'un outil de visualisation nommé VITRAIL Visualizer. Ces outils sont la base de nos recherche actuelles sur l'étude de l'exécution des programmes objets.
APA, Harvard, Vancouver, ISO, and other styles
7

Menguy, Grégoire. "Black-box code analysis for reverse engineering through constraint acquisition and program synthesis." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG023.

Full text
Abstract:
Les logiciels sont de plus en plus grands et complexes. Ainsi, certaines tâches comme le test et la vérification de code, ou la compréhension de code, sont de plus en plus difficiles à réaliser pour un humain. D'où la nécessité de développer des méthodes d'analyse automatique. Celles-ci sont usuellement en boîte blanche, utilisant la syntaxe du code pour déduire ses propriétés. Elles sont très efficaces mais présentent certaines limitations: le code source est nécessaire, la taille et la complexité syntaxique du code (accentuée par des optimisations et de l'obfuscation) impactent leur efficacité. Cette thèse explore comment les méthodes en boîte noire peuvent inférer des propriétés utiles pour la rétro-ingénierie. Nous étudions, tout d'abord, l'inférence de contrat de fonction qui tente d'apprendre sur quelles entrées une fonction peut être exécutée pour obtenir les sorties souhaitées. Nous adaptons l'acquisition de contraintes, en résolvant une de ses principales limitations: la dépendance à un être humain. En ressort PreCA, la première approche totalement boîte noire offrant des garanties claires de correction. PreCA est ainsi particulièrement approprié pour l'aide au développement. Nous étudions ensuite la déobfuscation, qui vise à simplifier du code obfusqué. Nous proposons Xyntia qui synthétise, via des S-métaheuristiques, une version compréhensible de blocs de code. Xyntia est plus rapide et robuste que l'état de l'art. De plus, nous proposons les deux premières protections contre la déobfuscation en boîte noire
Software always becomes larger and more complex, making crucial tasks like code testing, verification, or code understanding highly difficult for humans. Hence the need for methods to reason about code automatically. These are usually white-box, and use the code syntax to deduce its properties. While they have proven very powerful, they also show limitations: they need the source code, the code size and the data structures' complexity degrade their efficiency, they are highly impacted by syntactic code complexity amplified by optimizations obfuscations. This thesis explores how black-box code analysis can infer valuable properties for reverse engineering through data-driven learning. First, we consider the function contracts inference problem, which aims to infer over which inputs a code function can be executed to get good behaviors only. We extend the constraint acquisition learning framework, notably solving one of its major flaws: the dependency on a human user. It leads to PreCA, the first black-box approach enjoying clear theoretical guarantees. It makes PreCA especially suitable for development uses. Second, we consider the deobfuscation problem, which aims to simplify obfuscated code. Our proposal, Xyntia, synthesizes code block semantics through S-metaheuristics to offer an understandable version of the code. Xyntia significantly improves the state-of-the-art in terms of robustness and speed. In addition, we propose the two first protections efficient against black-box deobfuscation
APA, Harvard, Vancouver, ISO, and other styles
8

Furgeaud, Clarisse. "Effets cinétique et chimique lors des premiers stades de croissance de films minces métalliques : compréhension multi-échelle par une approche expérimentale et modélisation numérique." Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2298.

Full text
Abstract:
Cette thèse est consacrée au suivi de la dynamique de croissance de films minces métalliques par pulvérisation magnétron et sa corrélation avec les propriétés des films, telles que les contraintes résiduelles, la microstructure et la morphologie de surface. Différents outils de diagnostic in situ et en temps réel (courbure du substrat-MOSS, spectroscopie de réflectivité optique de surface-SDRS, diffraction (DRX) et réflectivité (XRR) des rayons X et résistivité électrique) couplés à des caractérisations ex situ (HRTEM, STEM, DRX, XRR, EBSD) ont permis d’appréhender l’influence des effets cinétiques et chimiques (réactivité interfaciale, effet d’alliage) sur les premiers stades de croissance (percolation et continuité) et l’évolution structurale et morphologique de films métalliques de haute (Cu, Ag) et faible (W) mobilité. Cette approche est couplée à des simulations atomistiques par Monte Carlo cinétique (kMC) donnant accès aux mécanismes élémentaires de croissance dans le cas du Cu. Ce code, construit et développé pour modéliser la croissance des films minces par pulvérisation magnétron, tient compte des spécificités de cette technique : distribution angulaire et énergétique du flux incident, dépôt d’énergie en (sub-)surface et évolution des contraintes aux joints de grains. Ce couplage expérimental et numérique a mis en évidence une interdépendance complexe de la vitesse de dépôt et du dépôt d’énergie sur la morphologie de croissance et les contraintes intrinsèques des films de Cu et Ag. La génération de contraintes dans ces systèmes résulte de la compétition de différents mécanismes atomiques. Le code kMC montre que la contrainte de compression due à la diffusion des adatomes dans les joints de grains diminue avec la vitesse de dépôt en l’absence de particules énergétiques. De plus, les effets chimiques étudiés comparativement dans les systèmes Cu/Ge et Ag/Ge ont mis en évidence une compétition entre énergie d’interface, réactivité chimique et ségrégation du Ge lors de la croissance. Si les mécanismes de croissance sont différents pour les deux métaux, la présence de Ge (en co-dépôt ou en sous-couche) mène aux mêmes conséquences microstructurales, à savoir une amélioration de la texture (111) et une diminution de la taille des grains et de la rugosité de surface. Enfin, cette méthodologie appliquée à la croissance d’alliages W-Si a montré une dépendance de l’épaisseur critique de la transition amorphe/cristal et de la compétition entre nucléation de la phase et en fonction de la teneur de Si
This thesis deals with the growth dynamics of thin metal films by magnetron sputtering and their correlation with film properties, such as residual stress, microstructure and surface morphology. Various in situ and real-time diagnostic tools (substrate curvature-MOSS, Optical surface reflectivity spectroscopy-SDRS, X-ray diffraction (XRD), X-ray reflectivity (XRR) and electrical resistivity) were implemented. Coupling these investigations with ex situ characterization (HRTEM, STEM, DRX, XRR, EBSD) allows to understand the influence of kinetic and chemical effects (interfacial reactivity, alloying effect) on the early stages of growth (percolation and continuity) but also on the structural and morphological evolutions of high (Cu, Ag) and low (W) mobility metal films. A modeling approach was used for the case of Cu growth, where kinetic Monte Carlo atomistic simulations (kMC) give access to elementary growth mechanisms. This code, developed in-house to model the growth of thin films by magnetron sputtering, takes into account the specificities of this technique: angular and energetic distribution of the incident flux, energy deposition in (sub-)surface and evolution of the stress at grain boundaries. This coupling of experiments and modelling has demonstrated a complex interdependence of the deposition rate and energy deposition on the growth morphology and the intrinsic stress of Cu and Ag films. The stress level in these systems results from the competition of different atomic mechanisms. The kMC code shows that, in the absence of energetic particles, the compressive stress due to the diffusion of adatoms in the grain boundaries decreases with the deposition rate.In addition, the chemical effects studied comparatively in the Cu/Ge and Ag/Ge systems revealed a competition between interface energy, chemical reactivity and Ge segregation during growth. The growth mechanisms are different for both metals however, the presence of Ge (co-deposited or sublayer) leads to the same microstructural consequences, namely an improvement of the texture (111) and a decrease of grain size and surface roughness.Finally, this methodology applied to the growth of W-Si alloys showed that the critical thickness of the amorphous / crystal transition and the nucleation of either the or the phase strongly depends on the Si content
APA, Harvard, Vancouver, ISO, and other styles
9

Saturnino, David. "Compréhension de la relation entre la structure physico-chimique et l’activité des catalyseurs d’HDS vieillis." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10070.

Full text
Abstract:
L'hydrodésulfuration (HDS) est un procédé majeur du raffinage pétrolier pour enlever le soufre des charges, typiquement avec un catalyseur CoMoS/Al2O3. Pendant un cycle du procédé d'HDS, la désactivation du catalyseur est due à trois causes principales : dépôt de coke, dépôt de métaux et ségrégation de la phase active. L'objectif de ce travail a été l'étude de l'effet du cokage et modifications de la phase active sur la désactivation du catalyseur d'HDS (de type CoMoS/Al2O3) appliqué à l'HDS des gazoles et la recherche des paramètres clés pour l'obtention d'un catalyseur usé comparable à celui issu de raffinerie. Des tests de vieillissement accéléré ont été réalisés avec différentes charges (différentes teneurs en aromatiques), couverture en hydrogène, durée et un pré-traitement de réduction. Après chaque test, les catalyseurs ont été caractérisés en termes de texture (méthodes BET et BJH), coke (Raman, IR, TPO, RPE, ToF-SIMS) et phase active (MET/EDX, XPS, TPR). En termes de texture et coke, une teneur élevée en aromatiques dans la charge et une couverture en hydrogène faible favorisent la formation de coke. Pour augmenter l'organisation du coke par rapport au catalyseur industriel, nous avons proposé un test plus long. En termes de phase active, une longue durée, couverture en hydrogène élevée et une pré-réduction favorisent plus d'hétérogénéité des teneurs en soufre et cobalt de la phase active et la formation d'agglomérats de sulfure de cobalt. La pré-réduction semble être efficace pour simuler l'exposition à des températures élevées pendant un cycle d'HDS, ce qui conduit à la ségrégation de la phase active, une caractéristique d'un catalyseur usé industriellement
Hydrodesulfurization (HDS) is a major process of petroleum refining for sulphur removal, where CoMoS/Al2O3 is the typical catalyst. During the cycle of a HDS process, deactivation of the catalyst is attributed to three main causes: coke deposition (with loss of pore volume), metals deposition and segregation of the active phase. The aim of this work was to study the effect of coking and active phase changes on the deactivation of the HDS catalyst (of CoMoS/Al2O3 type) applied to the HDS of a diesel feed and find the key operating conditions to obtain a spent catalyst comparable to the industrial one. Accelerated aging tests have been performed with different feedstocks (different amounts of aromatics), hydrogen to oil ratio, duration and a pre-reduction treatment. After each test, catalysts have been characterized in terms of texture (BET and BJH methods), coke (Raman, IR, TPO, EPR, ToF-SIMS) and active phase (TEM/EDX, XPS, TPR). In terms of texture and coke, a high amount of aromatics on the feedstock and low hydrogen to oil ratio favor the formation of coke. In order to increase the organization of graphitic coke, we have proposed a longer test. In terms of active phase, a long duration, high hydrogen to oil ratio and a pre-reduction treatment favor loss of dispersion of sulphur and cobalt contents of the active phase and formation of cobalt sulfide agglomerates. Pre-reduction seems to be an effective treatment to simulate the exposure to high temperatures during a HDS cycle which results in segregation of the active phase, a fingerprint of an industrial spent HDS catalyst
APA, Harvard, Vancouver, ISO, and other styles
10

Al-Msie'Deen, Ra'Fat. "Construction de lignes de produits logiciels par rétro-ingénierie de modèles de caractéristiques à partir de variantes de logiciels: l'approche REVPLINE." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2014. http://tel.archives-ouvertes.fr/tel-01015102.

Full text
Abstract:
La mise en place d'une ligne de produits logiciels permet de construire et de maintenir une famille de produits logiciels similaires en mettant en œuvre des principes de réutilisation. Ces principes favorisent la réduction de l'effort de développement et de maintenance, raccourcissent le temps de mise sur le marché et améliorent la qualité globale du logiciel. La migration de produits logiciels similaires vers une ligne de produits demande de comprendre leurs similitudes et leurs différences qui s'expriment sous forme de caractéristiques (features) offertes. Dans cette thèse, nous nous intéressons au problème de la construction d'une ligne de produits à partir du code source de ses produits et de certains artefacts complémentaires comme les diagrammes de cas d'utilisation, quand ils existent. Nous proposons des contributions sur l'une des étapes principales dans cette construction, qui consiste à extraire et à organiser un modèle de caractéristiques (feature model) dans un mode automatisé. La première contribution de cette thèse consiste à extraire des caractéristiques dans le code source de variantes de logiciels écrits dans le paradigme objet. Trois techniques sont mises en œuvre pour parvenir à cet objectif : l'Analyse Formelle de Concepts, l'Indexation Sémantique Latente et l'analyse des dépendances structurelles dans le code. Elles exploitent les parties communes et variables au niveau du code source. La seconde contribution s'attache à documenter une caractéristique extraite par un nom et une description. Elle exploite le code source mais également les diagrammes de cas d'utilisation, qui contiennent, en plus de l'organisation logique des fonctionnalités externes, des descriptions textuelles de ces mêmes fonctionnalités. En plus des techniques précédentes, elle s'appuie sur l'Analyse Relationnelle de Concepts afin de former des groupes d'entités d'après leurs relations. Dans la troisième contribution, nous proposons une approche visant à organiser les caractéristiques, une fois documentées, en un modèle de caractéristiques. Ce modèle de caractéristiques est un arbre étiqueté par des opérations et muni d'expressions logiques qui met en valeur les caractéristiques obligatoires, les caractéristiques optionnelles, des groupes de caractéristiques (groupes ET, OU, OU exclusif), et des contraintes complémentaires textuelles sous forme d'implications ou d'exclusions mutuelles. Ce modèle est obtenu en exploitant une structure obtenue par Analyse Formelle de Concepts appliquée à la description des variantes par les caractéristiques. L'approche est validée sur trois cas d'étude principaux : ArgoUML-SPL, Health complaint-SPL et Mobile media. Ces cas d'études sont déjà des lignes de produits constituées. Nous considérons plusieurs produits issus de ces lignes comme s'ils étaient des variantes de logiciels, nous appliquons notre approche, puis nous évaluons son efficacité par comparaison entre des modèles de caractéristiques extraits automatiquement par l'approche présentée et les modèles de caractéristiques initiaux (conçus par les développeurs des lignes de produits analysées).
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Compréhension de code"

1

Scholl, Aurélien, Gabriel Letainturier-Fradin, and Charles-Maurice de Vaux. Duels Célèbres, Suivi du Duel à Travers les âges, Histoire et législation, Duels Célèbres, et Code du Duel: Petit Essai de Sociologie Compréhensive des Duels Au Cours de L'histoire. Independently Published, 2017.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography