Auswahl der wissenschaftlichen Literatur zum Thema „Synthèse de code“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Synthèse de code" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Synthèse de code"

1

Pinto, José Emilio Nunes, und Matthieu de Boisséson. „Synthèse sur le Nouveau Droit de l’Arbitrage“. Revista Brasileira de Arbitragem 8, Issue 32 (01.12.2011): 7–16. http://dx.doi.org/10.54648/rba2011050.

Der volle Inhalt der Quelle
Annotation:
ABSTRACT: The new decree that modifies the terms of the French Code of Civil Procedure regarding arbitration law was published in January 2011 and came into force in May 2011, representing significant changes to arbitration provisions. This article explains the new modifications in the main provisions that will affect the stages of arbitral proceedings, the drafting of the arbitration convention, the Arbitral Tribunal, and the execution of the award. The present article introduces as well the notion of the "juge d'appui", which in France is the President of the higher Court, and has the role of a supporting judge.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Boulanger, Marc. „Justice et absolutisme : la Grande Ordonnance d'août 1670“. Revue d’histoire moderne et contemporaine 47, Nr. 1 (2000): 7–36. http://dx.doi.org/10.3406/rhmc.2000.1999.

Der volle Inhalt der Quelle
Annotation:
Nouveau Justinien, Louis XIV a chargé depuis 1665 une quarantaine de juristes confirmés de préparer un monumental ouvrage de synthèse, un code de procédure criminelle. Quelle place donner à l'être humain dans l'édifice pénal ? Comment réglementer la peine de mort ? quels privilèges judiciaires faut-il préserver ? Comment créer une administration irréprochable ? Déchirée entre tradition et modernité, la grande ordonnance criminelle d'août 1670 est le fruit de débats passionnés... Mais l'œuvre peut-elle suffire à répondre aux attentes d'une France saturée de violences, d'injustices et de criminalité ?
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Boyé, Marc. „La géographie est-elle une science? Introduction aux problèmes de codification dans le traitement automatique de l’information géographique“. Cahiers de géographie du Québec 14, Nr. 32 (12.04.2005): 157–69. http://dx.doi.org/10.7202/020907ar.

Der volle Inhalt der Quelle
Annotation:
Le présent article est à la fois une introduction épistémologique à la géographie et une approche sémantique du langage, fort complexe, qu'emploient les géographes. Son but est d'inviter à la réflexion sur les problèmes que pose la codification de l'information géographique pour un traitement automatique. Comme toutes les disciplines chargées de gérer et de présenter un « corps de savoir », la géographie est aujourd'hui confrontée à l'accumulation accélérée de la masse documentaire qu'elle utilise. Les éléments qui composent son corps de savoir viennent pour la plupart d'autres sciences et d'autres disciplines, d'un degré de complexité moindre, qui lui fournissent des informations concernant la Terre et les Hommes. Le rôle du géographe est de synthétiser ces apports en vue de rendre compte de la répartition des faits physiques ou humains considérés à la surface du globe et d'en produire une expression cartographique ; son point de vue est celui d'un généraliste. Toutefois, la géographie ne s'intéresse pas aux faits sur le seul plan statistique ; elle considère encore leurs rapports et leur genèse, voire leur devenir en ce qu'ils sont, eux aussi, susceptibles de représentation cartographique. Il n'y a donc pas, à proprement parler, d'information géographique, mais une manière géographique de dresser la synthèse d'informations de provenances diverses. Or, chaque source d'information a son langage propre, de sorte que le langage géographique procède pour une grande part d'emprunts et ne dispose d'un langage spécifique qu'à partir d'un certain degré de synthèse. Il en résulte que, n'étant ni une science ni une discipline scientifique, même lorsqu'elle s'équipe de méthodes pour « percevoir et pénétrer » du nouveau, la géographie ne peut pas se plier à une codification unique, sous la forme d'un thésaurus de mots-clés. Il lui faut au moins trois ordres de codes aptes à un jeu de combinaisons : 1 — Un code géographique, pour la localisation à la surface du globe ; un système de coordonnées par exemple ; 2 — Un code taxonomique, c'est-à-dire un vocabulaire des « maîtres-mots » qui portent l'esprit même de la préoccupation géographique et constituent la classification typologique propre à la discipline ; 3 — Un code syntaxique, où notamment les emprunts faits à d'autres langages seraient à faire jouer comme des données grammaticales. Par la logique même de l'argumentation, des notions comme science, discipline, connaissance, corps de savoir ont trouvé l'occasion d'être précisées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Colas, Maxime, und Michel Deloizy. „Le Model Based Design pour l’apprentissage par conception guidée“. J3eA 22 (2023): 1009. http://dx.doi.org/10.1051/j3ea/20231009.

Der volle Inhalt der Quelle
Annotation:
Cet article présente une démarche d’apprentissage par conception guidée reposant sur des techniques de prototypage rapide dans le domaine mécatronique. La pédagogie développée se veut intégrative et auto-contenue : elle ne nécessite pas de prérequis et apporte au fur et à mesure des besoins, l’ensemble des connaissances et compétences pluridisciplinaires nécessaires à la progression cohérente du projet de conception, tant d’un point de vue mécanique, programmation, qu’en termes de technique de contrôle-commande, le tout dans un volume horaire contraint. La ligne directrice employée vise à confronter de façon permanente, progressive et itérative, modèle simulé et système réel dans un objectif de dimensionnement de partie opérative, de validation de modèle et d’algorithmes de commande en tirant partie d’outils logiciels de contrôle/commande temps-réel, de synthèse de code et de simulation multiphysique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Gunputh, Rajendra Parsad. „Les limites d’adaptation-interprétation du Code civil français dans la synthèse du droit mixte mauricien - Coexistence et influence dans les Mascareignes“. Revue internationale de droit comparé 60, Nr. 4 (2008): 885–925. http://dx.doi.org/10.3406/ridc.2008.19721.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Popovici, Adrian. „Libres propos sur la culture juridique québécoise dans un monde qui rétrécit“. McGill Law Journal 54, Nr. 2 (03.12.2009): 223–36. http://dx.doi.org/10.7202/038652ar.

Der volle Inhalt der Quelle
Annotation:
Résumé L’auteur appréhende la culture juridique québécoise par une brève présentation de ses caractéristiques, des grands thèmes qui la traversent, de ses institutions, de ses influences et de son évolution. Il retrace d’abord les origines hybrides du droit civil québécois, imprégné des traditions juridiques du droit civil et du common law, dont les règles ont longtemps été métissées par les jugements uniformisateurs du Comité judiciaire du Conseil privé et de la Cour suprême du Canada. L’élite intellectuelle du monde juridique québécois a toutefois contré ce phénomène en dénonçant cette uniformisation du droit québécois avec le common law et a également jeté les bases de la culture juridique québécoise moderne. Celle-ci a par la suite connu une transformation rapide et désordonnée, marquée par l’adoption du Code civil du Québec, à la fois symbole de continuité et de nouveauté. L’auteur reprend ensuite son analyse à travers le prisme des «ismes», qui forment ensemble une synthèse originale de la culture juridique québécoise.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Boulanger, Marc. „Justice et absolutisme: la Grande Ordonnance criminelle d'août 1670“. Revue d’histoire moderne & contemporaine 47-1, Nr. 1 (01.02.2000): 9–36. http://dx.doi.org/10.3917/rhmc.g2000.47n1.0009.

Der volle Inhalt der Quelle
Annotation:
Résumé Nouveau Justinien, Louis XIV a chargé depuis 1665 une quarantaine de juristes confirmés de préparer un monumental ouvrage de synthèse, un code de procédure criminelle. Quelle place donner à l'être humain dans l'édifice pénal ? Comment réglementer la peine de mort ? quels privilèges judiciaires faut-il préserver ? Comment créer une administration irréprochable ? Déchirée entre tradition et modernité, la grande ordonnance criminelle d'août 1670 est le fruit de débats passionnés... Mais l'oeuvre peut-elle suffire à répondre aux attentes d'une France saturée de violences, d'injustices et de criminalité ? Posing as a New Justinian, Louis the XlVth requested a bunch of forty highly skilled jurists to prépare a huge synthesis about criminal procédures. What status can the pénal structure offer to the human being ? How cah be improved the régulations about death penalty ? about légal privilèges ? How can be created a stainless administration ? Torn between tradition and modernity, the great criminal régulation, August 1670, is the fruit of impassioned debates... May this work,however, be enough to live up to the French' expectations, in thèse days full of violence, injustice and criminality ?
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Carayol, Cécile. „La Ligne rouge de Hans Zimmer. Matrice d’un « nouvel Hollywood » électro-minimaliste et contemplatif“. Revue musicale OICRM 5, Nr. 2 (30.11.2018): 79–102. http://dx.doi.org/10.7202/1054148ar.

Der volle Inhalt der Quelle
Annotation:
À travers une étude comparative de plusieurs films au contexte narratif contemplatif comme La Ligne Rouge (Terrence Malick, 1998), partition-matrice qui a marqué une nette évolution dans l’esthétique zimmerienne, Hannibal (Ridley Scott, 2001), Da Vinci Code (de Ron Howard, 2006) « synthèse la plus raffinée des influences du minimalisme » (Berthomieu 2013, p. 698), jusqu’à des partitions que Hans Zimmer a composées pour Christopher Nolan comme Inception (2010) et Interstellar (2014), cet article montre de quelle manière Zimmer parvient pleinement à imposer un nouveau courant musical à Hollywood en intégrant une écriture épurée imprégnée notamment par le minimalisme d’Arvo Pärt à des boucles élaborées par des synthétiseurs ou des sons électroniques : si les hommages ciblés à des oeuvres d’Arvo Pärt sont propices à souligner le tourment intérieur ou le recueillement sombre, Zimmer reprend également des principes plus généraux de cette forme de minimalisme – souvent une oscillation immuable et répétée à l’infini autour d’un accord parfait mineur – presque systématiquement mêlés à cette énergie créative de timbres hybrides, afin de créer une autre temporalité apportant une forme d’inéluctable à l’image tout en maintenant empathie et synchronisme discret comme soutiens à l’action (La Ligne rouge, Batman Begins, Da Vinci Code, Inception). La quinte – seule, en ostinato ou répétée sur un motif – quintessence du tintinnabuli zimmerien (au-delà de l’accord parfait pärtien), souligne l’instant suspendu (La Ligne rouge, Hannibal, Interstellar), tandis qu’une forme de radicalisation de ce minimalisme qui va parfois jusqu’à la négation de toute mélodie, remplacée par une note unique, devenue texture abstraite, ou par un cluster diatonique en blend mode (Da Vinci Code, Interstellar), évoque le désespoir, la mort, ou le néant. Loin d’être un « monde » qui « se réduit alors au vide d’un présent sans rêve » (Berthomieu 2004, p. 75), l’écriture électro-minimaliste et contemplative de Zimmer, marquée par une cohérence narrative forte, est connectée au programme esthétique des films auxquels elle se destine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Hesketh, John E., und Stéphane Villette. „Intracellular trafficking of micronutrients: from gene regulation to nutrient requirements“. Proceedings of the Nutrition Society 61, Nr. 4 (November 2002): 405–14. http://dx.doi.org/10.1079/pns2002176.

Der volle Inhalt der Quelle
Annotation:
RésuméLa distribution intracellulaire des micronutriments ainsi que leur absorption sont importantes pour les fonctions cellulaires. Dans certains cas la distribution des micronutriments ou des protéines associées est déterminée par des mécanismes liés à l'expression des gènes. La région 3' non traduite (3'UTR) de l'ARNm de la métallothioneine-1 détermine la localisation de ce message et, par conséquent, la localisation intracellulaire de la protéine qu'il code. En utilisant des cellules transfectées nous avons montré que la métallothioneine-1 est transportée vers le noyau ou elle exerce un rôle dans la protection contre le stress oxydant et les dommages causés à l'ADN. Quand l'apport nutritionnel en Se est limité, l'expression des sélénoproteines est altérée. Toutefois celle-ci n'est pas affectée de fac¸on identique pour toutes les sélénoproteines; le Se disponible étant utilisé de fac¸on prioritaire pour la synthèse de certaines d'entre elles. Cet ordre de priorité met en jeu des différences dans la traduction et la stabilité de leur ARNm qui sont sous le controle de séquences dans la région 3' non traduite. Potentiellement, des variations génétiques affectant ces mécanismes régulateurs peuvent moduler les besoins en nutriments. Des polymorphismes génétiques ont été décrits dans le 3'UTR des ARNm de deux sélénoproteines; l'un d'entre eux affectant la synthèse de la sélénoproteine correspondante. Ces exemples illustrent comment des approches moléculaires peuvent contribuer à accroître notre compréhension du métabolisme et des besoins en nutriments à différents niveaux. Premièrement, elles permettent d'étudier les effets régulateurs des gènes et de leurs produits. Ensuite, la compréhension de ces effets peut fournir un modèle pour étudier le métabolisme des nutriments au niveau cellulaire. Ainsi, lorsque des effets essentiels sont identifiés, la connaissance du génome humain et les bases de données sur les polymorphismes génétiques constituent des outils complémentaires pour définir l'étendue de la variation génétique des gènes revêtant une importance nutritionnelle. Enfin, la fonctionnalité de ces variations peut être définie et des sous-groupes de la population, possédant des besoins nutritionnels différents, peuvent etre identifiés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Fekih-Mrissa, N., A. Sayeh, C. B. Cheikh, A. Oumaya und S. Galleli. „Contribution de la mutation C677T dans la persistance des signes négatifs dans la schizophrénie en Tunisie“. European Psychiatry 28, S2 (November 2013): 28. http://dx.doi.org/10.1016/j.eurpsy.2013.09.069.

Der volle Inhalt der Quelle
Annotation:
IntroductionLe trouble schizophrénique se subdivise, en signes positifs et négatifs. Les symptômes négatifs (S−) sont hétérogènes, reflétant à la fois les symptômes intrinsèques à la schizophrénie, des symptômes résultant d’une dépression concomitante ou distraction en raison des symptômes positifs. Récemment, certains facteurs de risque génétiques impliqués dans la persistance des (S−) sont étudiés, notamment la mutation C677T du gène MTHFR. Patients et méthodesNotre étude a porté sur 60 patients schizophrènes recrutés au service de psychiatrie à l’hôpital militaire principal d’instruction de Tunis. La mutation C677T du gène MTHFR a été étudiée par la technique PCR-RFLP. La digestion enzymatique a été effectuée avec Hinf1.Résultats et discussionNotre étude a révélé que le génotype CT est statistiquement significatif (Δ2 = 15,15, p = 0,001). Ainsi, le génotype CT semble prédisposer à la persistance des (S−) chez les schizophrènes. Ceci peut être expliqué par le rôle que joue le gène MTHFR qui code pour l’enzyme indispensable à la réduction de l’acide folique afin d’être métaboliquement actif. Le folate actif étant impliqué dans la synthèse des neurotransmetteurs notamment la sérotonine, son déficit induit la persistance des (S−).ConclusionLa mutation C677T semble jouer un rôle dans l’étiopathologie de la schizophrénie. Il est nécessaire de mieux l’appréhender afin de mettre en place de nouvelles stratégies de prise en charge de la maladie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Synthèse de code"

1

Thévenoux, Laurent. „Synthèse de code avec compromis entre performance et précision en arithmétique flottante IEEE 754“. Perpignan, 2014. http://www.theses.fr/2014PERP1176.

Der volle Inhalt der Quelle
Annotation:
La précision numérique et le temps d'exécution des programmes utilisant l'arithmétique flottante sont des enjeux majeurs dans de nombreuses applications de l'informatique. L'amélioration de ces critères fait l'objet de nombreux travaux de recherche. Cependant, nous constatons que l'amélioration de la précision diminue les performances et inversement. En effet, les techniques d'amélioration de la précision, telles que les expansions ou les compensations, augmentent le nombre de calculs que devra exécuter un programme. Plus ce coût est élevé, plus les performances sont diminuées. Ce travail de thèse présente une méthode d'amélioration automatique de la précision prenant en compte l'effet négatif sur les performances. Pour cela nous automatisons les transformations sans erreur des opérations élémentaires car cette technique présente un fort potentiel de parallélisme. Nous proposons de plus des stratégies d'optimisation permettant une amélioration partielle des programmes afin de contrôler plus finement son impact sur les performances. Des compromis entre performances et précision sont alors assurés par la synthèse de code. Nous présentons de plus, à l'aide d'outils implantant toutes les contributions de ce travail, de nombreux résultats expérimentaux
Numerical accuracy and execution time of programs using the floating-point arithmetic are major challenges in many computer science applications. The improvement of these criteria is the subject of many research works. However we notice that the accuracy improvement decrease the performances and conversely. Indeed, improvement techniques of numerical accuracy, such as expansions or compensations, increase the number of computations that a program will have to execute. The more the number of computations added is, the more the performances decrease. This thesis work presents a method of accuracy improvement which take into account the negative effect on the performances. So we automatize the error-free transformations of elementary floating-point operations because they present a high potential of parallelism. Moreover we propose some transformation strategies allowing partial improvement of programs to control more precisely the impact on execution time. Then, tradeoffs between accuracy and performances are assured by code synthesis. We present also several experimental results with the help of tools implementing all the contributions of our works
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Albin-Amiot, Hervé. „Idiomes et patterns Java : application à la synthèse de code et à la détection“. Nantes, 2003. http://www.theses.fr/2003NANT2018.

Der volle Inhalt der Quelle
Annotation:
Les design patterns (ou patrons de conception) sont reconnus comme une des bonnes techniques du génie logiciel à objets facilitant la conception, la documentation, la maintenance et la rétro-conception. Malgré cela, force est de constater que dans les faits, peu d'environnements logiciels sont à la fois outillés pour inciter l'utilisateur à appliquer un catalogue de patterns et pour l'aider à améliorer ses programmes en y extrayant automatiquement des micro-architectures correspondant à celles de patterns déjà répertoriés. Dans ce mémoire nous présentons un langage de description de patterns (PDL) servant de support à un outillage de l'environnement de développement VISUAL AGE POUR JAVA. . .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Guillaume, Philippe. „Contribution aux aspects dorsaux de la synthèse de systèmes monopuces : optimisation de code pour processeurs embarqués, analyse de la consommation dans un environnement de synthèse comportementale“. Grenoble INPG, 1999. http://www.theses.fr/1999INPG0069.

Der volle Inhalt der Quelle
Annotation:
Les diverses branches de la conception de circuits integres, ont tendance aujourd'hui a se fondre en la notion de synthese de systeme sur une puce ou de systeme monopuce. Cela est du a l'accroissement de la densite d'integration, couplee a l'evolution des techniques de conception assistees. Au sein du flot de synthese de systemes monopuces, deux tendances en particulier se detachent, qui sont l'integration croissante de logiciel embarque dans de tels systeme, et la prise en compte tres tot dans le flot du probleme de la consommation. Cette these s'interesse a ces deux aspects de la conception de systemes actuels. La premiere partie se focalise sur l'optimisation de programmes embarques c. Ces travaux s'attachent principalement a optimiser a haut niveau les performances de programmes faisant un usage intensif de boucles et de tableaux, comme c'est le cas pour les applications de traitement du signal. Les optimisations etudiees et developpees au cours de ces travaux, ont pour objectif de se substituer a des transformation manuelles de programmes embarques, pratique qui reste courante, de par l'incapacite de la plupart des compilateurs pour processeurs embarques a gerer efficacement un code ecrit a un niveau eleve. La seconde partie de cette these se donne pour objectif de fournir une methodologie d'estimation de la consommation dans un environnement de synthese comportementale. C'est en effet a haut niveau d'abstraction, que les strategies de conception basse consommation ont l'impact le plus important sur la consommation du circuit final. Mais il est necessaire pour cela de pouvoir juger de l'efficacite des strategies basse consommation appliquees, a l'aide d'un modele d'estimation fiable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Xiao, Chenglong. „Identification d'opérateurs spécifiques pour la synthèse de haut niveau“. Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00759040.

Der volle Inhalt der Quelle
Annotation:
Il est de plus en plus fréquent de faire appel à des opérateurs spécifiques en conception de circuits. Les opérateurs spécifiques peuvent être mis en oeuvre par des unités matérielles dédiées, en vue de réduire la taille du code, d'améliorer les performances et de réduire la surface du circuit. Dans cette thèse, nous proposons un flot de conception basé sur l'identification d'opérateurs spécifiques pour la synthèse de haut niveau. Les points clés de ce flot de conception sont l'énumération automatique et la sélection des opérateurs spécifiques à partir d'un code de l'application de haut niveau et la re-génération du code source intégrant les opérateurs spécifiques sélectionnés. Contrairement aux approches proposées précédemment, notre flot de conception est adaptable et est indépendant des outils de synthèse de haut niveau (il ne nécessite pas d'intervenir sur les algorithmes d'ordonnancement et de projection des outils de synthèse de haut niveau). Les résultats expérimentaux montrent que notre approche permet de réduire la surface du circuit de 19% en moyenne, et jusqu'à 37% dans certains cas, par rapport à une synthèse de haut niveau traditionnelle. La latence du circuit est réduite en moyenne de 22%, et atteint jusqu'à 59%. De plus, la taille du code est réduite de 74% en moyenne.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Abdallah, Rouwaida. „Implementability of distributed systems described with scenarios“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00919684.

Der volle Inhalt der Quelle
Annotation:
Distributed systems lie at the heart of many modern applications (social networks, web services, etc.). However, developers face many challenges in implementing distributed systems. The major one we focus on is avoiding the erroneous behaviors, that do not appear in the requirements of the distributed system, and that are caused by the concurrency between the entities of this system. The automatic code generation from requirements of distributed systems remains an old dream. In this thesis, we consider the automatic generation of a skeleton of code covering the interactions between the entities of a distributed system. This allows us to avoid the erroneous behaviors caused by the concurrency. Then, in a later step, this skeleton can be completed by adding and debugging the code that describes the local actions happening on each entity independently from its interactions with the other entities. The automatic generation that we consider is from a scenario-based specification that formally describes the interactions within informal requirements of a distributed system. We choose High-level Message Sequence Charts (HMSCs for short) as a scenario-based specification for the many advantages that they present: namely the clear graphical and textual representations, and the formal semantics. The code generation from HMSCs requires an intermediate step, called "Synthesis" which is their transformation into an abstract machine model that describes the local views of the interactions by each entity (A machine representing an entity defines sequences of messages sending and reception). Then, from the abstract machine model, the skeleton's code generation becomes an easy task. A very intuitive abstract machine model for the synthesis of HMSCs is the Communicating Finite State Machine (CFSMs). However, the synthesis from HMSCs into CFSMs may produce programs with more behaviors than described in the specifications in general. We thus restrict then our specifications to a sub-class of HMSCs named "local HMSC". We show that for any local HMSC, behaviors can be preserved by addition of communication controllers that intercept messages to add stamping information before resending them. We then propose a new technique that we named "localization" to transform an arbitrary HMSC specification into a local HMSC, hence allowing correct synthesis. We show that this transformation can be automated as a constraint optimization problem. The impact of modifications brought to the original specification can be minimized with respect to a cost function. Finally, we have implemented the synthesis and the localization approaches into an existing tool named SOFAT. We have, in addition, implemented to SOFAT the automatic code generation of a Promela code and a JAVA code for REST based web services from HMSCs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Rochet, Raphaël. „Synthèse Automatique de Contrôleurs avec Contraintes de Sûreté de Fonctionnement“. Phd thesis, Grenoble INPG, 1996. http://tel.archives-ouvertes.fr/tel-00345417.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose de nouvelles méthodes de synthèse automatique des contrôleurs internes aux circuits numériques. Elles permettent en particulier d'intégrer, directement au niveau du contrôleur, des dispositifs de détection d'erreurs ou de tolérance aux fautes. En ce qui concerne la détection d'erreurs, quatre flots de synthèse ont été implantés. Deux d'entre eux utilisent la méthode classique de duplication et comparaison, tandis que les deux autres sont basés sur la vérification d'un flot de contrôle par analyse de signature. La signature est une information permettant de caractériser la séquence parcourue d'états du contrôleur. La vérification du flot de contrôle correspond à la détection des séquences illégales d'états. En ce qui concerne la tolérance aux fautes, quatre flots ont été implantés. Deux d'entre eux utilisent la méthode classique de triplement et vote majoritaire, tandis que les deux autres sont basés sur l'utilisation d'un code correcteur d'erreurs lors du codage du contrôleur. Une erreur survenant dans le code de l'état courant peut ainsi être corrigée en utilisant les propriétés du code correcteur choisi. L'analyse des résultats de synthèse de nombreux exemples montre l'intérêt des nouvelles méthodes de détection et de tolérance proposées, et des algorithmes de synthèse implantés. Ainsi, ces méthodes et ces algorithmes permettent, entre autres, de définir de nouveaux compromis coût/sûreté de fonctionnement, en réduisant sensiblement le coût matériel de la redondance implantée. L'automatisation des traitements permet de plus de réduire le coût de conception lié à l'amélioration de la sûreté de fonctionnement des contrôleurs, en particulier lorsque des techniques plus pointues sont préférées à la redondance massive
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Lauter, Christoph Quirin. „Arrondi correct de fonctions mathématiques : fonctions univariées et bivariées, certification et automatisation“. Lyon, École normale supérieure (sciences), 2008. http://www.theses.fr/2008ENSL0482.

Der volle Inhalt der Quelle
Annotation:
Cette thèse élargit l'espace de recherche accessible en pratique pour des implantations de fonctions mathématiques correctement arrondies en virgule flottante. Elle passe d'abord de l'arrondi correct de fonctions univariées comme log à des familles de fonctions univariées xn , puis à la fonction bivariées xy. Une approche innovatrice pour la détection de cas de frontière d'arrondi de xy à l'aide d'une information partielle sur les pires cas de cette fonction est proposée. Cette innovation provoque un gain en vitesse conséquent. Ensuite, cette thèse propose des approches automatiques pour certifier une implantation de fonction correctement arrondie. Pour la certification des bornes d'erreur d'approximation, un nouvel algorithme pour le calcul de normes infini certifiées est présenté et mis en pratique. Puis les erreurs d'arrondi dans une implantation de fonction mathématique sont analysées par des techniques développées pour l'outil de preuve formelle Gappa. Finalement, des algorithmes sont développées qui permettent l'automatisation de l'implantation de fonctions. Une première mise en œuvre dans l'outil Sollya permet de générer et certifier, sans aucune intervention humaine, le code pour évaluer une fonction mathématique. A l'aide d'un tel outil automatique, de larges espaces de recherches peuvent être parcouru afin d'optimiser une implantation. Au futur, une intégration de ces techniques dans un compilateur est envisageable
This thesis broadens the research space for the implementations of correctly rounded mathematical functions in floating-point arithmetic. Interest goes first to the functions xn and to the function xy. A novel approach for detecting the rounding boundary cases of xy is proposed. This innovation yields to a consequent speed-up of this function. Further, this thesis proposes automatic approaches for certifying a correctly rounded implementation of a function. A new algorithm for the safe computation of infinite norms is presented and made practically usable. Finally, algorithms are developed that allow for an automation of the implementation process of functions. A first realization in the Sollya tool permits generating and certifying the code for evaluating a mathematical function without human interaction. In the future, an integration of such techniques in a compiler can be considered
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Daveau, Jean-Marc. „Spécifications systèmes et synthèse de la communication pour le co-design logiciel/matériel“. Grenoble INPG, 1997. https://tel.archives-ouvertes.fr/tel-00002996.

Der volle Inhalt der Quelle
Annotation:
Au fur et à mesure que la complexité s'accroit, il devient nécessaire de définir de nouvelles méthodes permettant de la gérer. Une des façons de maîtriser cette complexité est d'élever le niveau d'abstraction des spécifications en utilisant des langages de spécification systèmes. D'un autre côté, l'élévation du niveau d'abstraction augmente le fossé entre les concepts utilisés pour la spécification (processus communicants, communication abstraite) et ceux utilisés par les langages de description de matériel. Bien que ces langages soient bien adaptés à la spécification et la validation de systèmes complexes, les concepts qu'ils manipulent ne sont pas aisément transposables sur ceux des langages de description de matériels. Il est donc nécessaire de définir de nouvelles méthodes permettant une synthèse efficace à partir de spécifications systèmes. Le sujet de cette thèse est la présentation d'une approche de génération de code C et VHDL à partir de spécifications systèmes en SDL. Cette approche résout la principale difficulté rencontrée par les autres approches, à savoir la communication inter-processus. La communication SDL peut être traduite en VHDL en vue de la synthèse. Cela est rendu possible par l'utilisation d'une forme intermédiaire qui supporte un modèle de communication générale qui autorise la représentation pour la synthèse de la plupart des schémas de communication. Cette forme intermédiaire permet d'appliquer au système un ensemble d'étapes de raffinement pour obtenir la solution désirée. La principale étape de raffinement, appelée synthèse de la communication, détermine le protocole et les interfaces utilisés par les différents processus pour communiquer. La spécification raffinée peut être traduite en C et VHDL pour être utilisée par des outils du commerce. Nous illustrons la faisabilité de cette approche par une application à un système de télécommunication : le protocole TCP/IP sur ATM
As the system complexity grows there is a need for new methods to handle large system design. One way to manage that complexity is to rise the level of abstraction of the specifications by using system level description languages. On the other side, as the level of abstraction rise the gap between the concepts used for the specification at the system level (communication channels, interacting processes, data types) and those used for hardware synthesis becomes wider. Although these languages are well suited for the specification and validation of complex real time distributed systems, the concepts manipulated are not easy to map onto hardware description languages. It is thus necessary to defines methods for system level synthesis enabling efficient synthesis from system level specifications. The subject of this thesis is the presentation of a new approach of generation of C and VHDL code from system level specifications in SDL. This approach solves the main problem encountered by previous approach : inter process communications. SDL communication can be translated in VHDL for synthesis. This is achieved by the use of a powerful intermediate form that support the modelling for synthesis of a wide range of communication schemes. This intermediate form allows to apply to the system a set of transformations in order to obtain the desired solution. The main refinement step, called communication synthesis is aimed at fixing the protocol and interface used by the different processes to communicate. The refined specification can be translated in C and VHDL and synthesised by commercial tools. We illustrate the feasibility of this approach through an application to a telecommunication example : the TCP/IP over ATM protocol
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Rochet, Raphaël. „Synthèse automatique de contrôleurs avec contraintes de sûreté de fonctionnement“. Phd thesis, Grenoble INPG, 1996. https://theses.hal.science/tel-00345417.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose de nouvelles méthodes de synthèse automatique des contrôleurs internes aux circuits numériques. Elles permettent en particulier d'intégrer, directement au niveau du contrôleur, des dispositifs de détection d'erreurs ou de tolérance aux fautes. En ce qui concerne la détection d'erreurs, quatre flots de synthèse ont été implantés. Deux d'entre eux utilisent la méthode classique de duplication et comparaison, tandis que les deux autres sont basés sur la vérification d'un flot de contrôle par analyse de signature. La signature est une information permettant de caractériser la séquence parcourue d'états du contrôleur. La vérification du flot de contrôle correspond à la détection des séquences illégales d'états. En ce qui concerne la tolérance aux fautes, quatre flots ont été implantés. Deux d'entre eux utilisent la méthode classique de triplement et vote majoritaire, tandis que les deux autres sont basés sur l'utilisation d'un code correcteur d'erreurs lors du codage du contrôleur. Une erreur survenant dans le code de l'état courant peut ainsi être corrigée en utilisant les propriétés du code correcteur choisi. L'analyse des résultats de synthèse de nombreux exemples montre l'intérêt des nouvelles méthodes de détection et de tolérance proposées, et des algorithmes de synthèse implantés. Ainsi, ces méthodes et ces algorithmes permettent, entre autres, de définir de nouveaux compromis coût/sûreté de fonctionnement, en réduisant sensiblement le coût matériel de la redondance implantée. L'automatisation des traitements permet de plus de réduire le coût de conception lié à l'amélioration de la sûreté de fonctionnement des contrôleurs, en particulier lorsque des techniques plus pointues sont préférées à la redondance massive
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Razafimandimby, Stéphane. „Accord en fréquence de résonateurs BAW appliqué au filtrage et à la synthèse de fréquence RF“. Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Razafimandimby.pdf.

Der volle Inhalt der Quelle
Annotation:
Cette thèse fait l'objet de l'étude de l'accord en fréquence de résonateurs BAW appliqué au filtrage et à la synthèse de fréquence RF en vue de les co-intégrer avec une technologie silicium et ce par le biais d'une technologie BUMP. L'objectif principal est de compenser électroniquement leurs dispersions fréquentielles liées aux imprécisions de leurs procédés de fabrication et à leur sensibilité aux effets thermiques. Après une brève présentation dans le chapitre 1 d'une architecture classique de chaîne de réception zéro-IF WCDMA, cadre de nos travaux, le chapitre 2 présente, plus en détails, la technologie et les modèles des résonateurs BAW qui nous ont permis d'appréhender leur intégration. Les différents modes de filtrage et moyens d'accorder les fréquences caractéristiques de tels résonateurs sont, entre autres, abordés. Le troisième chapitre traite, ensuite, de la conception du filtre accordable en fréquence dont les résultats de mesure sont également exposés. Le chapitre 4 détaillera, quant à lui, le choix de la stratégie d'accord en fréquence du filtre en vue d'une régulation automatique de la fréquence centrale du filtre autour du gabarit du filtre post-LNA de la chaîne de réception WCDMA pour pallier les déviations fréquentielles dont souffrent les résonateurs BAW. Les résultats de mesure témoignent de la faisabilité de la conception d'un accord en fréquences précis et rapide de filtres à 2GHz. Enfin, le chapitre 5 expose une étude de conception de blocs autonomes générant une fréquence de référence dont les mesures placent ce travail à l'état de l'art de par sa compacité, sa consommation et son bruit de phase compatible à celui requis par la norme GSM.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Synthèse de code"

1

Lauria, Massimo, Hrsg. Produzione dell'Architettura tra tecniche e progetto / Architectural Planning between build and design techniques. Florence: Firenze University Press, 2010. http://dx.doi.org/10.36253/978-88-8453-988-5.

Der volle Inhalt der Quelle
Annotation:
The V Seminar OsDotta, that took place in Reggio Calabria, at the Department DASTEC, in September 2009, focused the debate on what type of contribution the Technology of the Architecture can offer, today, to the education of an architect, designer and researcher. The themes proposed for the three working tables – Techniques Materials Design - Techniques Processes Design - Techniques Morphologies Design – have been set out through reference frameworks, syntheses of the preliminary activities, results and products elaborated during the workshop. From these works some disciplinary criticalities and potentiality come out, interfacing themselves with checks on outside spendable aspects of the acquired competences and with the analysis introduced by the international referees.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Hartmann, Philippe. Centrales nucléaires et environnement - Prélèvements d'eau et rejets. EDP Sciences, 2014. http://dx.doi.org/10.1051/978-2-7598-0913-4.

Der volle Inhalt der Quelle
Annotation:
Permettre à la nouvelle génération d’exploitant des centrales nucléaires d’EDF d’acquérir une base robuste sur l’environnement et les centrales nucléaires ... ... offrir à tous, amateurs de vrais livres, ou internautes convaincus, une information pédagogique sur les besoins en eau d’une centrale nucléaire, ses rejets d’effluents dans l’environnement, la surveillance de leurs éventuels impacts, sans oublier le corpus réglementaire applicable, le rôle des autorités de contrôle, ... ... c’est ce double défi qu’a relevé une équipe de chercheurs, ingénieurs, juristes, exploitants, tout juste sortis d’une vie professionnelle consacrée entièrement au domaine et forts d’une expertise reconnue, patiemment accumulée au fil des ans dans tous les métiers de l’Entreprise ; ils ont mis toutes leurs connaissances et expériences au service de ce guide. Le résultat est à la hauteur de leur talent. Après une synthèse de tout ce qu’il faut savoir en 10 pages, le guide décrit les interactions de ces grands ouvrages industriels avec leur environnement : – dans un sens, les services écologiques apportés aux centrales nucléaires pour leur permettre de produire l’électricité la moins carbonée et l’une des plus compétitives d’Europe au service du bien-être des hommes et, – dans l’autre sens, les nombreuses actions mises en oeuvre par EDF pour connaître, éviter ou réduire les effets des centrales sur les écosystèmes. L’organisation de ce guide permet au lecteur de s’y promener au gré de ses besoins ou de sa curiosité. Il y découvre l’importance qu’accorde l’exploitant à informer le public faisant sienne la définition de la transparence d’André Comte-Sponville : « Dire au public tout ce qu’il n’aimerait pas apprendre par d’autre que nous ». Un tour de la réglementation applicable aux centrales nucléaires amène le lecteur au pied de la pyramide réglementaire française des installations nucléaires de base (INB) avec à son sommet la fameuse loi TSN (Transparence et Sécurité Nucléaire) transposée aujourd’hui dans le code de l’environnement. Un détour par Oslo et Paris avec la convention OSPAR sur la protection du milieu marin ; un saut à Berne et sa convention pour la protection du Rhin, puis, bien sûr, Kyoto et le protocole sur la réduction des gaz à effet de serre, pour terminer à Bruxelles avec nombre de directives et règlements. Enfin, le guide aborde le contrôle des rejets et la surveillance de l’environnement au voisinage des centrales nucléaires, ce qui permet de suivre les principaux paramètres indicateurs de la qualité des écosystèmes terrestre et aquatique. Référence est faite aux études et aux techniques de mesures les plus sophistiquées pour déceler le moindre effet. Je remercie les auteurs pour la qualité de ce guide qui éclairera les parcours de tous nos collaborateurs qui entrent dans ce métier passionnant et rigoureux d’exploitant de centrales nucléaires. Sans nul doute, ce guide permettra aussi à un plus grand nombre de mieux connaître comment EDF conjugue les enjeux sociétaux, environnementaux et économiques au service de sa mission de producteur d’électricité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Synthèse de code"

1

Meskhidze, Helen. „(What) Do We Learn from Code Comparisons? A Case Study of Self-Interacting Dark Matter Implementations“. In Synthese Library, 171–86. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-26618-8_10.

Der volle Inhalt der Quelle
Annotation:
AbstractThere has been much interest in the recent philosophical literature on increasing the reliability and trustworthiness of computer simulations. One method used to investigate the reliability of computer simulations is code comparison. Gueguen, however, has offered a convincing critique of code comparisons, arguing that they face a critical tension between the diversity of codes required for an informative comparison and the similarity required for the codes to be comparable. Here, I reflect on her critique in light of a recent code comparison investigating self-interacting dark matter in two computer simulation codes. I argue that the informativeness of this particular code comparison was due to its targeted approach and narrow focus. Its targeted approach (i.e., only the dark matter modules) allowed for simulation outputs that were diverse enough for an informative comparison and yet still comparable. Understanding the comparison as an instance of eliminative reasoning narrowed the focus: we could investigate whether code-specific differences in implementation contributed significantly to the results of self-interacting dark matter simulations. Based on this case study, I argue that code comparisons can be conducted in such a way that they serve as a method for increasing our confidence in computer simulations being, as Parker defines, adequate-for-purpose.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Machuca, Diego E. „Coda“. In Synthese Library, 249–55. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-91210-9_11.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Oftedal, Gry. „The Metaphorical Role of the Histone Code“. In Synthese Library, 253–67. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-90688-7_13.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Kadowaki, Kevin. „Simulation Verification in Practice“. In Synthese Library, 151–70. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-26618-8_9.

Der volle Inhalt der Quelle
Annotation:
AbstractWith the increased use of simulations as investigative tools in various scientific fields, the question naturally arises as to how these simulations are epistemically justified. One natural approach is to insist that the numerical aspects of simulation justification be performed separately from the physical aspects, but Winsberg (2010) has argued that this is impossible for highly complex simulations. Based on a survey and close examination of a range of astrophysical MHD codes and their attendant literature, I argue that insisting on a strict separation of these aspects of simulation justification is neither epistemically necessary nor advisable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Distin, Mitchell Ryan. „The Nuances of Biological Syntheses: A Commentary on Shuker“. In Evolutionary Biology: Contemporary and Historical Reflections Upon Core Theory, 505–9. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-22028-9_30.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Mathews, Christopher K., Linda J. Wheeler, Christian Ungermann, J. Patrick Young und Nancy B. Ray. „Enzyme Interactions Involving T4 Phage-Coded Thymidylate Synthase and Deoxycytidylate Hydroxymethylase“. In Advances in Experimental Medicine and Biology, 563–70. Boston, MA: Springer US, 1993. http://dx.doi.org/10.1007/978-1-4615-2960-6_115.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Futuyma, Douglas J. „Phenotypic Plasticity and Evolutionary Syntheses: A Commentary on Dickins, T.E.“ In Evolutionary Biology: Contemporary and Historical Reflections Upon Core Theory, 461–65. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-22028-9_27.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Ohta, Shigeo, Hideaki Tomura, Kakuko Matsuda, Kiyoshi Hasegawa und Yasuo Kagawa. „The Structure and Expression of a Human Gene for a Nuclear-Coded Mitochondrial Adenosine Triphosphate Synthase Beta Subunit“. In Molecular Structure, Function, and Assembly of the ATP Synthases, 67–72. Boston, MA: Springer US, 1989. http://dx.doi.org/10.1007/978-1-4613-0593-4_8.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Bolle, Cordelia, Viktor Kusnetsov, Doris Michl, Daguang Cai, Ralph-Bernd Klosgen, Ralf Oelmüller und Reinhold G. Herrmann. „The Genes for the Three Nuclear-Coded Subunits of Chloroplast ATP Synthases; Characterization of the Promotors from the Single-Copy Genes atpC and atpD from Spinach“. In Research in Photosynthesis, 377–80. Dordrecht: Springer Netherlands, 1992. http://dx.doi.org/10.1007/978-94-009-0383-8_83.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Leblois-Happe, Jocelyne. „Schlussbetrachtung/Conclusion: Rapport de synthèse“. In 200 Jahre Code d'instruction criminelle - Le Bicentenaire du Code d'instruction criminelle, 245–46. Nomos Verlagsgesellschaft mbH & Co KG, 2010. http://dx.doi.org/10.5771/9783845222455-245.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Synthèse de code"

1

Ebong, E. E., D. C. Spray und J. M. Tarbell. „The Roles of HS and Its Glypican-1 Core Protein in Flow-Induced Endothelial NOS Activation and Cell Remodeling“. In ASME 2011 Summer Bioengineering Conference. American Society of Mechanical Engineers, 2011. http://dx.doi.org/10.1115/sbc2011-53294.

Der volle Inhalt der Quelle
Annotation:
Endothelial cell (EC) glycocalyx (GCX) is an endovascular protective coat that is degraded in disease. GCX heparan sulfate (HS) proteoglycan is essential for flow-induced nitric oxide (NO) release and cell remodeling, but the HS core proteins involved in these mechanotransduction events are unknown. We hypothesize that the glypican-1 (GPC1) HS core protein mediates flow-induced EC NO synthase (eNOS) activation and is less important for flow-induced cell remodeling, because GPC1 is located in the caveolae where eNOS resides but, to our knowledge, GPC1 has no direct association with the cytoskeleton. We tested our hypotheses by exposing monolayers of bovine aortic EC (BAEC) with intact GCX, heparinase III (HepIII) enzymatically degraded HS, and RNA-silenced GPC1 to 12–15 dyne/cm2 average shear stress for 3 and 24 hours. HS removal by HepIII and GPC1 inhibition by shRNA equally blocked shear-induced eNOS activation that occurs in shear-conditioned BAEC with fully intact GCX. EC remodeling in response to flow was attenuated by HS degradation, but preserved with GPC1 knockdown. These results suggest that while HS is involved in both centralized and decentralized GCX-mediated mechanotransduction mechanisms, GPC1 plays a role in only centralized GCX-mediated mechanotransduction.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Kang, Ki Moon, Hyo-Won Kim, Il-Wun Shim und Ho-Young Kwak. „Syntheses of Specialty Nanomaterials at the Multibubble Sonoluminescence Condition“. In ASME 2008 International Mechanical Engineering Congress and Exposition. ASMEDC, 2008. http://dx.doi.org/10.1115/imece2008-68320.

Der volle Inhalt der Quelle
Annotation:
In recent years, a large number of nano-size semiconductors have been investigated for their potential applications in photovoltaic cells, optical sensor devices, and photocatalysts [1, 2, 3]. Nano-size semiconductor particles have many interesting properties due mainly to their size-dependent electronic and optical properties. Appropriately, many speciality of nanomaterials such as CdS and ZnS semiconductor particles, and other metal oxides such as ZnO and lithium-titanate oxide (LTO) have been prepared. However, most of them were prepared with toxic reactants and/or complex multistep reaction processes. Particularly, it is quite difficult to produce LTO nanoparticles, since it typically requires wearisome conditions such as very high temperature over 1000 °C, long producing times, and so on. To overcome such problems, various core/shell type nanocrystals were prepared through different methods such as the hydrothermal synthetic method, microwave, and sonochemistry. Also many coating methods on inorganic oxide nanoparticles were tried for the preparations of various core-shell type nanocrystals. Sonoluminescence (SL) is a light emission phenomenon associated with the catastrophic collapse of a gas bubble oscillating under an ultrasonic field [4]. Light emission of single bubble sonoluminescence (SBSL) is characterized by picosecond flashes of the broad band spectrum extending to the ultraviolet [5, 6]. The bubble wall acceleration has been found to exceed 1011 g at the moment of bubble collapse. Recently observed results of the peak temperature and pressure from the sonoluminescing gas bubble in sulfuric acid solutions [9] were accurately predicted by the hydrodynamic theory for sonoluminescence phenomena [7, 10, 11, 12], which provides a clue for understanding sonochemical reactions inside the bubble and liquid layer adjacent to the bubble wall. Sonochemistry involves an application of sonoluminescence. The intense local heating and high pressure inside the bubbles and liquid adjacent bubble wall from such collapse can give rise to unusual effects in chemical reactions. The estimated temperature and pressure in the liquid zone around the collapsing bubble with equilibrium radius 5 μm, an average radius of bubbles generated in a sonochemical reactor at a driving frequency of 20 kHz with an input power of 179 W, is about 1000 °C and 500 atm, respectively. At the proper condition, a lot of transient bubbles are generated and collapse synchronistically to emit blue light when high power ultrasound is applied to liquid, and it is called multibubble sonoluminescence (MBSL). Figure 1 shows an experimental apparatus for MBSL with a cylindrical quartz cell, into which a 5 mm diameter titanium horn (Misonix XL2020, USA) is inserted [13]. The MBSL facilitates the transient supercritical state [14].in the liquid layer where rapid chemical reactions can take place. In fact, methylene blue (MB), which is one of a number of typical textile dyestuffs, was degraded very fast at the MBSL condition while MB does not degrade under simple ultrasonic irradiation [13]. MBSL has been proven to be a useful technique to make novel materials with unusual properties. In our study, various metal oxides such as ZnO powder [15], used as a primary reinforcing filler for elastomer, homogeneous Li4Ti5O12 nanoparticles [16], used for electrode materials, and core/shell nanoparticles such as CdS coating on TiO2 nanoparticles [17] and ZnS coating on TiO2 nanoparticles [18], which are very likely to be useful for the development of inorganic dye-sensitized solar cells, were synthesized through a one pot reaction under the MBSL condition. Figure 2 shows the XRD pattern of ZnO nanoparticles synthesized from zinc acetate dehydrate (Zn(CH3CO2)2 · 2H2O, 99.999%, Aldrich) in various alcohol solutions with sodium hydroxide (NaOH, 99.99%, Aldrich) at the MBSL condition. The XRD patterns of all powers indicate hexagonal zincite. The XRD pattern for the ZnO nanoparticles synthesized is similar to the ZnO powder produced by a modified sol-gel process and subsequent heat treatment at about 600 °C [19] as shown in Fig.3. The average particle diameter of ZnO powder is about 7 nm. A simple sonochemical method for producing homogeneous LTO nanoparticles, as shown schematically in Fig. 4. First, LiOH and TiO2 nanoparticles were used to prepare LiOH-coated TiO2 nanoparticles as shown in Fig.5. Second, the resulting nanoparticles were thermally treated at 500 °C for 1 hour to prepare LTO nanoparticles. Figure 6 shows a high resolution transmission electron microscope image of LTO nanoparticles having an average grain size of 30–40 nm. All the nanoparticle synthesized are very pure in phase and quite homogeneous in their size and shape. Recently we succeeded in synthesizing a supported nickel catalyst such as Ni/Al2sO3, MgO/Al2O3 and LaAlO3, which turned out to be effective for methane decomposition [20]. Sonochemistry may provide a new way to more rapidly synthesize many specialty nanoparticles with less waste [21]. This clean technology enables the preparation of new materials such as colloids, amorphous particles [22], and various alloys.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Abdullayev, E., A. Joshi, W. Wei, Y. Zhao und Y. Lvov. „Economically Viable Fabrication Method of Nanocomposite Materials From Linear Arrays of Metallic Nanoparticles and Nanorods on Tubular Halloysite Templates“. In ASME 2012 International Mechanical Engineering Congress and Exposition. American Society of Mechanical Engineers, 2012. http://dx.doi.org/10.1115/imece2012-87006.

Der volle Inhalt der Quelle
Annotation:
In this work, we report a simple fabrication method for metal nanoparticles and nanorods on halloysite supports. Silver nanorods of 15 nm diameter were synthesized by thermal decomposition of silver acetate within halloysite lumen. Nanorods had crystalline nature with [111] axis oriented ∼ 68° from the halloysite tubule main axis. Linear arrays from gold, iron, cobalt and palladium nanoparticles on halloysite external surface were also synthesized by chemical and thermal reduction method. Samples were analyzed by high-resolution transmission electron microscopy and field-emission scanning electron microscopy. These in situ syntheses offer a simple method for large scale fabrication of metallic nanorods and core-shell ceramic nanocomposites, which can be used as antimicrobial additives in plastic composites, nanoelectronic and optical materials with biocompatibility and environmentally friendly. Antimicrobial thin films were prepared based on halloysite-silver nanocomposites and tested on E. Coli and S Aureus bacterial culture. Antibacterial performance of the nanocomposite material was superior to the other conventional antimicrobial additives (silver doped bioactive glasses and carbon nanotubes). Radiation protection coatings based on fabricated nanocomposite materials is under development.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

TOSHIMA, NAOKI, YUKIHIDE SHIRAISHI, TORU MATSUSHITA, HISAYOSHI MUKAI und KAZUTAKA HIRAKAWA. „SELF-ORGANIZATION OF METAL NANOPARTICLES AND ITS APPLICATION TO SYNTHESES OF Pd/Ag/Rh TRIMETALLIC NANOPARTICLE CATALYSTS WITH TRIPLE CORE/SHELL STRUCTURES“. In Proceedings of the Asian Symposium on Nanotechnology and Nanoscience 2002. WORLD SCIENTIFIC, 2003. http://dx.doi.org/10.1142/9789812796714_0004.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Chikhradze, Nikoloz, Nikoloz Jalabadze, Mikheil Chikhradze, Davit Tsverava und George Janikashvili. „SHOCK-WAVE SYNTHESES OF HIGH ENTROPY ALLOYS IN Fe-W-Al-Ti-Ni-B-C SYSTEM“. In 23rd SGEM International Multidisciplinary Scientific GeoConference 2023. STEF92 Technology, 2023. http://dx.doi.org/10.5593/sgem2023/6.1/s24.10.

Der volle Inhalt der Quelle
Annotation:
High-Entropy Alloys (HEAs) have higher mixing entropy than the conventional alloys and intermetallic compounds and form the stabile solid solutions with disordered structure. They exhibit unique and special properties, in particular high hardness, wearresistance, significantly high strength, structural stability, good corrosion, and oxidation-resistance. HEAs �exotic�, core effects are followings: high configurational entropy; sluggish diffusion; lattice distortion and cocktail effect. At the current stage, the volume of investigations towards high entropy materials extended from single-phase solid solution structure to multi-phase structures, containing solid solution phases, intermetallic compounds, oxides, borides etc. Promised direction in this field are the high-entropy composites, prepared based on the HEAs matrix- reinforced with hard ceramic compounds. Accordingly, there is a huge potential to find new properties in the field of multi-component high-entropy nanostructure materials. The Fe-W-Al-Ti-Ni�BC composition considered in article for fabrication of HEA�s. The content of elements in blend were determined on the base of phase diagrams available in scientific databases. The planetary ball mill is used for Mechanical Alloying (MA) and nanopowder production. Industrial explosives are used for shock wave generation and consolidation of the blend. The MA blend charged in low carbon cylindrical steel tube container and closed both sides. A cardboard box with blend container was filled with explosives and detonated. The phase analyses and structure-property of obtained bulks HEA compacts investigated. Results of investigations discussed and presented in the paper.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Maria Arnaldo Valdés, Rosa, Victor Fernando Gómez Comendador, Raquel Delgado-Aguilera, Francisco Perez Moreno und Maria Zamarreño. „Impact of Artificial Intelligence in the Certification of Human-Centered Aviation systems“. In 13th International Conference on Applied Human Factors and Ergonomics (AHFE 2022). AHFE International, 2022. http://dx.doi.org/10.54941/ahfe1001432.

Der volle Inhalt der Quelle
Annotation:
In recent years we have witnessed the emergence of applications based on artificial intelligence in the aviation industry. This technology is said to be promoting a new era or evolution, such as the introduction of jet engines in the 1950s and fly-by-wire in the 1980s. To maintain aviation safety standards in this transition, civil aviation authorities responsible for certifying aerospace systems must anticipate the unprecedented impact of AI on human-centric aerospace systems and answer a number of critical questions:•How to establish public trust in human- centric AI-based systems?•How to integrate the ethical dimension of human- centric AI (transparency, non-discrimination, fairness, etc.) in safety certification processes? •How to prepare for the certification of human- centric AI systems? •What standards, protocols, methods needs to be developed to ensure that human- centric AI further improves the current level of air transport safety? EASA, the European Aviation Safety Agency, has recently developed a roadmap for the certification of AI applications in aviation, which analyzes the involvement of human- centric AI in the aviation sector and identifies the objectives that must be met and the actions that must be taken to respond to the previous questions. This effort constitutes a starting point for the certification of human- centric AI in aerospace systems. It develops in particular the core notion of trustworthiness of human- centric AI in human centered systems and proposes a framework based on four human- centric AI trustworthiness building block:— trustworthiness analysis — learning assurance — explainability — safety risk mitigation The presented paper syntheses the concept of human- centric AI applications, it also discusses and revises the 4 elements of the trustworthiness of human- centric AI framework proposed by EASA, and based on this discussion anticipates the possible impacts of the introduction of human- centric AI in the different Implementation Rules (IR), Certification Specifications (CS), Acceptable Means of Compliance (AMC) and guidance material (GM) in the domains covered by the EASA Basic Regulation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Declercq, Cedric, Andrew Ballard, Giovanni Ferraro und Anicet Touré. „The EUR Assessment Process and Highlights of the Compliance Analysis for the EU-APR Standard Design“. In 2018 26th International Conference on Nuclear Engineering. American Society of Mechanical Engineers, 2018. http://dx.doi.org/10.1115/icone26-81889.

Der volle Inhalt der Quelle
Annotation:
The EU-APR standard design is a two-loop pressurised water reactor of the range of 1400MWe, developed by Korean Hydro & Nuclear Power (KHNP) from the Korean APR1400 reference plant. It is the objective of the EU-APR to comply with the current main European regulatory and utility requirements for safe and competitive LWR NPPs. A full assessment of the EU-APR against the European Utility Requirements (EUR) can therefore be regarded as an important step in its introduction to the European market. KHNP’s request to assess its EU-APR standard design was granted by the EUR Organisation and in autumn of 2015, a two-year assessment process started, during which the EU-APR was assessed against the twenty chapters of the EUR Document Volume 2, encompassing over four thousand individual requirements having in view principally NPP safety and performance. The EU-APR standard design was assessed against each single requirement by experts of the appropriate discipline from within the EUR member companies. The resultant assessment reports were reviewed by the Coordination Group (working level team) and then validated by the EUR Administration Group and EUR Steering Committee. The syntheses of the requirement-by-requirement assessments per chapter were collected in the principal project output: the EU-APR dedicated subset of EUR Document Volume 3. This Volume 3 subset (Subset I) also contains a technical description of the plant, issued by KHNP and reviewed by the EUR organisation. Furthermore, it explains the assessment process and highlights the main assessment results. Volume 3 Subset I was approved by the EUR Steering Committee in September 2017. The EU-APR standard design was found to be fully compliant for a majority (almost 90%) of all requirements applicable in this assessment. Furthermore, the EU-APR was found to be compliant with the objectives of an additional 6% of the investigated requirements. The EU-APR standard design can be considered to be in the late basic design phase. Nonetheless, the portion of requirements which were not assessable is very low (below 3%), explained by the abundant availability of reference plant (detailed design) documentation, which often helped demonstrate by means of extrapolatable examples KHNP’s adherence to design principles established for the EU-APR. In total, less than 1% of assessed requirements were found to be non-compliant. The main non-compliances relate to choices of design principles and analysis methods that are explicitly different from those stipulated by EUR, and to the relatively low level of development of reactor core and fuel studies to demonstrate operational nuclear plant manoeuvrability and fuel cycle optimisation in view of safety margins and economics.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Du Bernard, Xavier, Jonathan Gallon und Jérôme Massot. „The Gaia Explorer, a Powerful Search Platform“. In Abu Dhabi International Petroleum Exhibition & Conference. SPE, 2021. http://dx.doi.org/10.2118/207837-ms.

Der volle Inhalt der Quelle
Annotation:
Abstract After two years of development, the GAIA Explorer is now ready to assist Geoscientists at Total! This knowledge platform works like a little Google, but with a focus solely on Geosciences - for the time being. The main goal of the GAIA Explorer is to save time finding the right information. Therefore, it is particularly useful for datarooms or after business acquisitions to quickly digest the knowledge, but also for feeding databases, exploration syntheses, reservoir studies, or even staff onboarding specially when remote working. With this additional time, Geoscientists can focus on tasks with added value, such as to synthesize, find analogies or propose alternative scenarios. This new companion automatically organizes and extracts knowledge from a large number of unstructured technical documents by using Machine Learning (ML). All the models relie on Google Cloud Platform (GCP) and have been trained on our own datasets, which cover main petroleum domains such as geosciences and operations. First, the layout of more than 75,000 document pages were analyzed for training a segmentation model, which extracts three types of content (text, images and tables). Secondly, the text content extracted from about 6,500 documents labelled amongst 30 classes was used to train a model for document classification. Thirdly, more than 55,000 images were categorized amongst 45 classes to customize a model of image classification covering a large panel of figures such as maps, logs, seismic sections, or core pictures. Finally, all the terms (n-grams) extracted from objects are compared with an inhouse thesaurus to automatically tag related topics such as basin, field, geological formation, acquisition, measure. All these elementary bricks are connected and used for feeding a knowledge database that can be quickly and exhaustively searched. Today, the GAIA Explorer searches within texts, images and tables from a corpus (document collection), which can be made up of both technical and operational reports, meeting presentations and academic publications. By combining queries (keywords or natural language) with a large array of filters (by classes and topics), the outcomes are easily refined and exploitable. Since the release of a production version in February 2021 at Total, about 180 users for 30 projects regularly use the tool for exploration and development purposes. This first version is following a continuous training cycle including active learning and, preliminary user feedback is good and admits that some information would have been difficult to locate without the GAIA Explorer. In the future, the GAIA Explorer could be significantly improved by implementing knowledge graph based on an ontology dedicated specific to petroleum domains. Along with the help of Specialists in related activities such as drilling, project or contract, the tool could cover the complete range of upstream topics and be useful for other business with time.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Synthèse de code"

1

Nelson, Gena, Angela Crawford und Jessica Hunt. A Systematic Review of Research Syntheses for Students with Mathematics Learning Disabilities and Difficulties. Boise State University, Albertsons Library, Januar 2022. http://dx.doi.org/10.18122/sped.143.boisestate.

Der volle Inhalt der Quelle
Annotation:
The purpose of this document is to provide readers with the coding protocol that authors used to code 36 research syntheses (including meta-analyses, evidence-based reviews, and quantitative systematic reviews) focused on mathematics interventions for students with learning disabilities (LD), mathematics learning disabilities (MLD), and mathematics difficulties (MD). The purpose of the systematic review of mathematics intervention syntheses was to identify patterns and gaps in content areas, instructional strategies, effect sizes, and definitions of LD, MLD, and MD. We searched the literature for research syntheses published between 2000 and 2020 and used rigorous inclusion criteria in our literature review process. We evaluated 36 syntheses that included 836 studies with 32,495 participants. We coded each synthesis for variables across seven categories including: publication codes (authors, year, journal), inclusion and exclusion criteria, content area focus, instructional strategy focus, sample size, methodological information, and results. The mean interrater reliability across all codes using this coding protocol was 90.3%. Although each synthesis stated a focus on LD, MLD, or MD, very few students with LD or MLD were included, and authors’ operational definitions of disability and risk varied. Syntheses predominantly focused on word problem solving, fractions, computer- assisted learning, and schema-based instruction. Syntheses reported wide variation in effectiveness, content areas, and instructional strategies. Finally, our results indicate the majority of syntheses report achievement outcomes, but very few syntheses report on other outcomes (e.g., social validity, strategy use). We discuss how the results of this comprehensive review can guide researchers in expanding the knowledge base on mathematics interventions. The systematic review that results from this coding process is accepted for publication and in press at Learning Disabilities Research and Practice.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Esquivel, Valeria, Ana Carolina Ogando, Ghida Ismail, Marcela Valdivia, Pranita Achyut, Nomancotsho Pakade, Gountiéni D. Lankoandé und Ian Heffernan. Pourquoi la reprise après la Covid-19 doit être sexospécifique. Institute of Development Studies, März 2022. http://dx.doi.org/10.19088/core.2022.002.

Der volle Inhalt der Quelle
Annotation:
Cette synthèse met en évidence les principaux enseignements tirés de la recherche menée dans le cadre de l’initiative Covid-19 Responses for Equity (CORE) axée sur l’impact de la pandémie sur différents groupes vulnérables et sur la façon dont le genre recoupe et exacerbe souvent ces conséquences. Soutenu par le Centre de recherches pour le développement international (CRDI), CORE réunit 21 projets visant à comprendre les impacts socio-économiques de la pandémie, améliorer les interventions existantes et générer de meilleures options stratégiques pour la reprise. La recherche est principalement dirigée par des chercheurs locaux, des universités, des groupes de réflexion et des organisations de la société civile dans 42 pays d’Afrique, d’Asie, d’Amérique latine et du Moyen-Orient.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Nelson, Gena. A Systematic Review of the Quality of Reporting in Mathematics Meta-Analyses for Students with or at Risk of Disabilities Coding Protocol. Boise State University, Juli 2021. http://dx.doi.org/10.18122/sped138.boisestate.

Der volle Inhalt der Quelle
Annotation:
The purpose of this document is to provide readers with the coding protocol that authors used to code 22 meta-analyses focused on mathematics interventions for students with or at-risk of disabilities. The purpose of the systematic review was to evaluate reporting quality in meta-analyses focused on mathematics interventions for students with or at risk of disabilities. To identify meta-analyses for inclusion, we considered peer-reviewed literature published between 2000 and 2020; we searched five education-focused electronic databases, scanned the table of contents of six special education journals, reviewed the curriculum vitae of researchers who frequently publish meta-analyses in mathematics and special education, and scanned the reference lists of meta-analyses that met inclusion criteria. To be included in this systematic review, meta-analyses must have reported on the effectiveness of mathematics-focused interventions, provided a summary effect for a mathematics outcome variable, and included school-aged participants with or at risk of having a disability. We identified 22 meta-analyses for inclusion. We coded each meta-analysis for 53 quality indicators (QIs) across eight categories based on recommendations from Talbott et al. (2018). Overall, the meta-analyses met 61% of QIs and results indicated that meta-analyses most frequently met QIs related to providing a clear purpose (95%) and data analysis plan (77%), whereas meta-analyses typically met fewer QIs related to describing participants (39%) and explaining the abstract screening process (48%). We discuss the variation in QI scores within and across the quality categories and provide recommendations for future researchers so that reporting in meta-analyses may be enhanced. Limitations of the current study are that grey literature was not considered for inclusion and that only meta-analyses were included; this limits the generalizability of the results to other research syntheses (e.g., narrative reviews, systematic reviews) and publication types (e.g., dissertations).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Nelson, Gena. A Systematic Review of the Quality of Reporting in Mathematics Meta-Analyses for Students with or at Risk of Disabilities Coding Protocol. Boise State University, Albertsons Library, Juli 2021. http://dx.doi.org/10.18122/sped.138.boisestate.

Der volle Inhalt der Quelle
Annotation:
The purpose of this document is to provide readers with the coding protocol that authors used to code 22 meta-analyses focused on mathematics interventions for students with or at-risk of disabilities. The purpose of the systematic review was to evaluate reporting quality in meta-analyses focused on mathematics interventions for students with or at risk of disabilities. To identify meta-analyses for inclusion, we considered peer-reviewed literature published between 2000 and 2020; we searched five education-focused electronic databases, scanned the table of contents of six special education journals, reviewed the curriculum vitae of researchers who frequently publish meta-analyses in mathematics and special education, and scanned the reference lists of meta-analyses that met inclusion criteria. To be included in this systematic review, meta-analyses must have reported on the effectiveness of mathematics-focused interventions, provided a summary effect for a mathematics outcome variable, and included school-aged participants with or at risk of having a disability. We identified 22 meta-analyses for inclusion. We coded each meta-analysis for 53 quality indicators (QIs) across eight categories based on recommendations from Talbott et al. (2018). Overall, the meta-analyses met 61% of QIs and results indicated that meta-analyses most frequently met QIs related to providing a clear purpose (95%) and data analysis plan (77%), whereas meta-analyses typically met fewer QIs related to describing participants (39%) and explaining the abstract screening process (48%). We discuss the variation in QI scores within and across the quality categories and provide recommendations for future researchers so that reporting in meta-analyses may be enhanced. Limitations of the current study are that grey literature was not considered for inclusion and that only meta-analyses were included; this limits the generalizability of the results to other research syntheses (e.g., narrative reviews, systematic reviews) and publication types (e.g., dissertations).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Bolton, Laura, und James Georgalakis. Les répercussions socioéconomiques de la Covid-19 dans les pays à revenu faible ou intermédiaire. Institute of Development Studies, Oktober 2022. http://dx.doi.org/10.19088/core.2022.012.

Der volle Inhalt der Quelle
Annotation:
Le présent rapport fournit un aperçu des recherches menées et publiées par les membres du programme CORE soutenu par le CRDI. Il présente les principaux thèmes abordés par la recherche en ce qui concerne les répercussions de la Covid-19 sur les industries, les secteurs et les groupes socioéconomiques en Afrique, au Moyen-Orient, en Asie du Sud et du Sud-Est et en Amérique latine. Cela comprend des descriptions de la manière dont la pandémie a affecté la vie de personnes issues de communautés marginalisées et exclues, et l’efficacité des réponses stratégiques à la pandémie. Une grande partie des enseignements découlant de cette recherche continue présente des implications sur la riposte contre la pandémie au sein de différents contextes, sur le renforcement de la résilience face aux chocs futurs et sur les défis inhérents à la recherche appliquée en situation d’urgence sanitaire mondiale. Compte tenu de la répartition diversifiée des 21 projets rapidement mobilisés par le CRDI dans 42 pays au cours des premiers stades de la pandémie, cette synthèse des conclusions est, par définition, beaucoup plus axée sur certaines régions et zones géographiques que d’autres ; elle ne prétend aucunement fournir une analyse complète des répercussions socioéconomiques de la Covid-19. Néanmoins, elle contribue à fournir des connaissances importantes pour les chercheurs, les acteurs politiques et les spécialistes qui cherchent à reconstruire en mieux dans le contexte d’une urgence sanitaire mondiale sans précédent.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Bennett, Alan B., Arthur Schaffer und David Granot. Genetic and Biochemical Characterization of Fructose Accumulation: A Strategy to Improve Fruit Quality. United States Department of Agriculture, Juni 2000. http://dx.doi.org/10.32747/2000.7571353.bard.

Der volle Inhalt der Quelle
Annotation:
The goal of the research project was to evaluate the potential to genetically modify or engineer carbohydrate metabolism in tomato fruit to enhance levels of fructose, a sugar with nearly twice the sweetness value of other sugars. The specific research objectives to achieve that goal were to: 1. Establish the inheritance of a fructose-accumulating trait identified in F1 hybrids of an inferspecific cross between L. hirsutum XL. esculentum and identify linked molecular markers to facilitate its introgression into tomato cultivars. This objective was completed with the genetic data indicating a single major gene, termed Fgr (Fructose glucose ratio), that controlled the partitioning of hexose in the mature fruit. Molecular markers for the gene, were developed to aid introgression of this gene into cultivated tomato. In addition, a second major gene encoding fructokinase 2 (FK2) was found to be a determinant of the fructose to glucose ratio in fruit. The relationship between FK2 and Fgr is epistatic with a combined synergistic effect of the two hirsutum-derived genes on fructose/glucose ratios. 2. Characterize the metabolic and transport properties responsible for high fructose/glucose ratios in fructose-accumulating genotypes. The effect of both the Fgr and FK2 genes on the developmental accumulation of hexoses was studied in a wide range of genetic backgrounds. In all backgrounds the trait is a developmental one and that the increase in fructose to glucose ratio occurs at the breaker stage of fruit development. The following enzymes were assayed, none of which showed differences between genotypes, at either the breaker or ripe stage: invertase, sucrose synthase, FK1, FK2, hexokinase, PGI and PGM. The lack of effect of the FK2 gene on fructokinase activity is surprising and at present we have no explanation for the phenomenon. However, the hirsutum derived Fgr allele was associated with significantly lower levels of phosphorylated glucose, G1c-1-P and G1c-6-P and concomitantly higher levels of the phosphorylated fructose, Fru-6-P, in both the breaker and ripe stage. This suggests a significant role for the isomerase reaction. 3. Develop and implement molecular genetic strategies for the production of transgenic plants with altered levels of enzymes that potentially control fructose/glucose ratios in fruit. This objective focused on manipulating hexokinase and fructokinase expression in transgenic plants. Two highly divergent cDNA clones (Frk1 and Frk2), encoding fructokinase (EC 2.7.1.4), were isolated from tomato (Lycopersicon esculentum) and a potato fructokinase cDNA clone was obtained from Dr. Howard Davies. Following expression in yeast, each fructokinase was identified to code for one of the tomato or potato fructokinase isoforms Transgenic tomato plants were generated with the fructokinase cDNA clone in both sense and antisense orientations and the effect of the gene on tomato plants is currently being studied.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Paynter, Robin A., Celia Fiordalisi, Elizabeth Stoeger, Eileen Erinoff, Robin Featherstone, Christiane Voisin und Gaelen P. Adam. A Prospective Comparison of Evidence Synthesis Search Strategies Developed With and Without Text-Mining Tools. Agency for Healthcare Research and Quality (AHRQ), März 2021. http://dx.doi.org/10.23970/ahrqepcmethodsprospectivecomparison.

Der volle Inhalt der Quelle
Annotation:
Background: In an era of explosive growth in biomedical evidence, improving systematic review (SR) search processes is increasingly critical. Text-mining tools (TMTs) are a potentially powerful resource to improve and streamline search strategy development. Two types of TMTs are especially of interest to searchers: word frequency (useful for identifying most used keyword terms, e.g., PubReminer) and clustering (visualizing common themes, e.g., Carrot2). Objectives: The objectives of this study were to compare the benefits and trade-offs of searches with and without the use of TMTs for evidence synthesis products in real world settings. Specific questions included: (1) Do TMTs decrease the time spent developing search strategies? (2) How do TMTs affect the sensitivity and yield of searches? (3) Do TMTs identify groups of records that can be safely excluded in the search evaluation step? (4) Does the complexity of a systematic review topic affect TMT performance? In addition to quantitative data, we collected librarians' comments on their experiences using TMTs to explore when and how these new tools may be useful in systematic review search¬¬ creation. Methods: In this prospective comparative study, we included seven SR projects, and classified them into simple or complex topics. The project librarian used conventional “usual practice” (UP) methods to create the MEDLINE search strategy, while a paired TMT librarian simultaneously and independently created a search strategy using a variety of TMTs. TMT librarians could choose one or more freely available TMTs per category from a pre-selected list in each of three categories: (1) keyword/phrase tools: AntConc, PubReMiner; (2) subject term tools: MeSH on Demand, PubReMiner, Yale MeSH Analyzer; and (3) strategy evaluation tools: Carrot2, VOSviewer. We collected results from both MEDLINE searches (with and without TMTs), coded every citation’s origin (UP or TMT respectively), deduplicated them, and then sent the citation library to the review team for screening. When the draft report was submitted, we used the final list of included citations to calculate the sensitivity, precision, and number-needed-to-read for each search (with and without TMTs). Separately, we tracked the time spent on various aspects of search creation by each librarian. Simple and complex topics were analyzed separately to provide insight into whether TMTs could be more useful for one type of topic or another. Results: Across all reviews, UP searches seemed to perform better than TMT, but because of the small sample size, none of these differences was statistically significant. UP searches were slightly more sensitive (92% [95% confidence intervals (CI) 85–99%]) than TMT searches (84.9% [95% CI 74.4–95.4%]). The mean number-needed-to-read was 83 (SD 34) for UP and 90 (SD 68) for TMT. Keyword and subject term development using TMTs generally took less time than those developed using UP alone. The average total time was 12 hours (SD 8) to create a complete search strategy by UP librarians, and 5 hours (SD 2) for the TMT librarians. TMTs neither affected search evaluation time nor improved identification of exclusion concepts (irrelevant records) that can be safely removed from the search set. Conclusion: Across all reviews but one, TMT searches were less sensitive than UP searches. For simple SR topics (i.e., single indication–single drug), TMT searches were slightly less sensitive, but reduced time spent in search design. For complex SR topics (e.g., multicomponent interventions), TMT searches were less sensitive than UP searches; nevertheless, in complex reviews, they identified unique eligible citations not found by the UP searches. TMT searches also reduced time spent in search strategy development. For all evidence synthesis types, TMT searches may be more efficient in reviews where comprehensiveness is not paramount, or as an adjunct to UP for evidence syntheses, because they can identify unique includable citations. If TMTs were easier to learn and use, their utility would be increased.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie