Academic literature on the topic 'Évaluation des logiciels'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Évaluation des logiciels.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Évaluation des logiciels"

1

Martí Ferriol, José Luis. "Herramientas informáticas disponibles para la automatización de la traducción audiovisual1 (“revoicing”)." Meta 54, no. 3 (October 16, 2009): 622–30. http://dx.doi.org/10.7202/038319ar.

Full text
Abstract:
Résumé Cet présent article fait état d’une évaluation des logiciels informatiques utilisés dans les principales modalités de la traduction audiovisuelle impliquant la reformulation orale de la traduction du texte cible (ce que l’on appelle en anglais revoicing) : l’audio-description, la voix superposée (voice-over) et le doublage. Cette dernière modalité est celle qui nous intéresse le plus, car il existe très peu de logiciels spécialisés la concernant. Après l’examen de ces logiciels, nous proposons deux options d’automatisation facilitant le travail des traducteurs en situation de doublage. La dernière phase de programmation de la première option est actuellement en cours. Puis, dans la dernière partie de cet article, nous proposons un glossaire et une liste de logiciels informatiques destinés au traducteur audiovisuel qui sont disponibles sur le marché.
APA, Harvard, Vancouver, ISO, and other styles
2

BENKELTOUM, Nordine. "Évaluation de l'innovation des logiciels open source." Systèmes d'information & management 18, no. 3 (2013): 37. http://dx.doi.org/10.3917/sim.133.0037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Molano, L. C., A. Cuvelier, and J. F. Muir. "Évaluation des logiciels de ventilation non invasive." Revue des Maladies Respiratoires 23, no. 4 (September 2006): 120. http://dx.doi.org/10.1016/s0761-8425(06)71690-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Boissinot, Claudie, Pascale De Bandt, and Denis Brossard. "Évaluation et comparaison des logiciels de traçabilité utilisés en stérilisation." Le Pharmacien Hospitalier 43, no. 175 (December 2008): 201–9. http://dx.doi.org/10.1016/s0768-9179(08)74963-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Schmidt, Colin. "Des automates intelligents ? Une évaluation des logiciels « prestataires de service »." Communication et langages 151, no. 1 (2007): 115–23. http://dx.doi.org/10.3406/colan.2007.4642.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Deak, Alexander, and Carlo P. Marinello. "Utilisation des logiciels CAO-FAO pour prothèses complètes." SWISS DENTAL JOURNAL SSO – Science and Clinical Topics 125, no. 6 (June 15, 2015): 721–28. http://dx.doi.org/10.61872/sdj-2015-06-06.

Full text
Abstract:
La fabrication de prothèses totales avec la tech- nique de pressage classique nécessite plusieurs séances cliniques et la collaboration du techni- cien dentaire. En revanche, la réalisation de pro- thèses totales fraisées en utilisant la technologie de numérisation («scannage») est en mesure de simplifier grandement le travail clinique ainsi que le travail technique au laboratoire dentaire. Le but de cette contribution est de présenter étape par étape une nouvelle procédure (AvaDent®, Global Dental Science, Scottsdale), qui permet la réalisation de prothèses totales en deux séances seule- ment. Pour ce faire, la prise d’empreinte définitive des maxillaires est réalisée lors de la première séance, de même que la détermination de la dimension verticale et horizontale au moyen de l’enregistrement de l’arc gothique par stylet scripteur, ainsi que la détermination de la position esthétique et fonctionnelle des dents antérieures (ligne médiane, contour des bords incisifs, taille des incisives). Les prothèses sont insérées en bouche au cours de la deuxième séance. La technique permet la modélisation virtuelle totale et le fraisage d’une prothèse complète, sans modèles en plâtre et sans mise en moufle dis- pendieuse ni bourrage de la résine au laboratoire dentaire. Ce système permet donc la réalisation hautement efficiente de prothèses totales amovibles de haute qualité pour le patient édenté. Nous présentons ci-dessous une évaluation critique de ce procédé du point de vue de l’utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
7

Davies, Graham Michael, and Sally Staddon. "Description of programs (présentation, utilisation et évaluation de logiciels pour l'apprentissage des langues)." Recherche et pratiques pédagogiques en langues de spécialité - Cahiers de l'APLIUT 7, no. 2 (1987): 44–48. http://dx.doi.org/10.3406/apliu.1987.1930.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Pariente, A., J. Viot, R. Thiebaut, P. Perez, and G. Chene. "P10-12 Évaluation de différents logiciels utilisables pour le calcul du nombre de sujets nécessaire." Revue d'Épidémiologie et de Santé Publique 52 (September 2004): 128. http://dx.doi.org/10.1016/s0398-7620(04)99342-x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

SAUVANT, D., and J. L. PEYRAUD. "Calculs de ration et évaluation du risque d’acidose." INRAE Productions Animales 23, no. 4 (September 14, 2010): 333–42. http://dx.doi.org/10.20870/productions-animales.2010.23.4.3312.

Full text
Abstract:
L’acidose du rumen soulève des problèmes croissants dans les élevages intensifs. Il est donc souhaitable de pouvoir disposer d’indicateurs simple d’emploi et permettant d’évaluer le risque acidogène des rations dès le moment de leur calcul. Pour établir ces critères, différentes bases de données rassemblées sur des bovins ont été interprétées. Ces interprétations statistiques, par méta-analyses, ont permis de dégager des prédictions du pH moyen du rumen à partir de différentes mesures. Certains critères, pertinents mais difficile à mesurer, relèvent plutôt des unités de recherches (indice de mastication, digestion ruminale de l’amidon). D’autres paramètres peuvent être évalués sur le terrain à partir d’une caractérisation de la ration distribuée ; c’est par exemple le cas de la proportion d’aliments concentrés, ou mieux, de la teneur en MS dégradable de la ration ou du NDF issus de fourrages longs au sein de la Matière Sèche (MS) de la ration qui sont aujourd’hui des critères facilement calculables à partir des tables de la valeur des aliments. La distinction entre les acidoses ruminale et métabolique a aussi été considérée dans ce travail. Pour chaque critère la valeur du pH de 6,2 a été prise comme seuil en dessous duquel le risque d’acidose du rumen était à considérer. A partir des 9 critères retenus, une grille d’évaluation a été proposée en distinguant de façon simple, pour chaque critère, les seuils et les situations à risque. Cette grille peut être facilement ajoutée aux logiciels de calcul des régimes de manière à pouvoir évaluer objectivement le risque d’acidose d’une ration, compte tenu des critères connus.
APA, Harvard, Vancouver, ISO, and other styles
10

Basso Boccabella, R., S. Dussaulx, Y. Germain, A. Hermitte-Gandolière, and G. Rondelot. "Interface entre deux logiciels de prescriptions : états des lieux des difficultés rencontrées et évaluation des risques." Le Pharmacien Hospitalier et Clinicien 53, no. 2 (April 2018): 97–108. http://dx.doi.org/10.1016/j.phclin.2017.12.006.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Évaluation des logiciels"

1

Pelet, Jacques. "Évaluation de l'intégrité des logiciels à caractère sécuritaire." Saint-Etienne, 1998. http://www.theses.fr/1998STET4026.

Full text
Abstract:
La course aux technologies nouvelles pousse de plus en plus les concepteurs de systèmes à introduire de la logique programmée là où hier on trouvait de la logique câblée. La grande souplesse du logiciel a un revers : la complexité. Si elle n'est pas maitrisée, elle dégrade considérablement la sûreté de fonctionnement de l'ensemble du dispositif. L'objet de la thèse est double dans un cadre où les logiciels étudiés traitent essentiellement des fonctions de sécurité. Le but était, premièrement d'acquérir un maximum de renseignement sur l'état de l'art de la conception et de la validation des logiciels. Le second objectif était de mettre au point une méthodologie d'évaluation de l'intégrité des logiciels. La démarche que nous avons définie est basée sur l'analyse des risques et sur la maitrise du comportement du logiciel. Cette démarche propose une évaluation sous deux aspects : le produit logiciel, et son processus de développement. Les exigences de vérifications sont modulables en fonction de la criticité fonctionnelle et structurelle du logiciel. La criticité structurelle a été définie en terme d'immunité de la structure vis-à-vis des défaillances des modules logiciels. Des études de qualimétrie sont menées pour démontrer la maintenabilité et la robustesse du code. A partir d'analyses de dépendances basées sur le slicing, le comportement des fonctions de sécurité peut être appréhendé par l'intermédiaire d'un indicateur de vulnérabilité. Cet indicateur caractérise la sensibilité des sorties du système par rapport à ses entrées. Ces études ont été automatisées au travers d'un outil d'analyse de code, allégeant ainsi le travail de l'évaluateur. Un exemple d'application de la méthode d'évaluation a été réalisée sur un système assurant le contrôle du mouvement des véhicules en sécurité intrinsèque
APA, Harvard, Vancouver, ISO, and other styles
2

Hu, Olivier. "Contribution à l'évaluation des logiciels multimédias pédagogiques." Compiègne, 2001. http://www.theses.fr/2001COMP1350.

Full text
Abstract:
On constate aujourd'hui un certain engouement de la part des institutions françaises et européennes et du grand public vers les Nouvelles Technologies pour I ‘éducation. Mais à y regarder de plus près, force est de constater qu'en pratique l'engouement n'est que virtuel et que les didacticiels sont fréquemment ignorés, oubliés, sous utilisés voire même rejetés. L'échec relatif des cd-rom aujourd'hui peut en grande partie être attribué à leur faible qualité devant un public très exigeant, et qui a toutes les raisons de l'être devant leur potentiel inexploité. Des défauts de conception, des contenus trop pauvres, des interfaces inefficaces, de mauvais usages du multimédia, des stratégies pédagogiques inadaptées, sont autant d'exemples d'erreurs courantes. Ainsi, à la croisée de l'évaluation des logiciels en 1HM et en EIAO, nous proposons un questionnaire articulé autour d'une critériologie étendue couvrant les problèmes techniques, ergonomiques jusqu'aux aspects éducatifs. Nous nous inscrivons dans une démarche orientée vers l'aide à l'évaluation, la méthode qui exploite ce questionnaire permet donc une adaptation dynamique du parcours, la capitalisation des impressions subjectives de I ‘évaluateur et la production de résultats contextualités grâce à l'application de calculs originaux : décomposition des questions en caractérisation/évaluation, application de notes exponentielles, pondérations des critères, confrontation des calculs et des impressions subjectives, etc. Enfin, nous proposons un prototype logiciel baptisé EMPI (Evaluation des logiciels Multimédias Pédagogiques Interactifs) qui instrumente notre méthode. Ces travaux ont été développés dans le cadre du pôle régional Nouvelles Technologies Educatives, soutenu financièrement par le Conseil Régional de Picardie.
APA, Harvard, Vancouver, ISO, and other styles
3

Maurice, François. "Un modèle d'évaluation et d'amélioration d'entités logicielles basé sur l'utilisation de métriques." Toulouse 3, 1996. http://www.theses.fr/1996TOU30192.

Full text
Abstract:
L'augmentation de la duree du developpement, de la complexite et de la criticite des taches a automatiser pour la realisation de logiciels a rendu de plus en plus difficile la satisfaction de leur qualite. De ce constat est ne le besoin de mesurer les produits logiciels afin de comprendre comment leurs aspects internes (tels que la taille, le couplage ou encore la complexite) nuisent a leur qualite externe telle que leur fiabilite, leur maintenabilite ou leur productivite, et ce afin de pouvoir prendre les decisions pour les ameliorer. De nombreuses metriques ont ete definies mais un manque de rigueur dans leur definition et leur application n'a pas permis d'obtenir les resultats escomptes dans l'amelioration des logiciels. La definition des metriques manque souvent de precisions sur ce qui est mesure, empechant ainsi leur critique et leur reutilisation de maniere efficace. De plus, leur definition ne s'insere pas dans une demarche coherente prenant en compte un but initial. L'application des metriques, qui se refere a l'utilisation des techniques statistiques aux valeurs fournies par les metriques, est trop souvent bafouee. Les caracteristiques des donnees collectees sont peu souvent prises en compte pour le choix des techniques statistiques impliquant ainsi une interpretation des resultats qui entraine des prises de decision d'amelioration inadequates aux problemes rencontres. Nous presentons une demarche permettant l'evaluation d'attributs internes et externes d'entites logicielles du type produit, processus ou ressource. Cette demarche utilise et renforce le paradigme defini par la methode ami. Ce processus permet, etape par etape, de suivre le deroulement d'une activite de mesurage coherente et pertinente pour l'amelioration des artefacts logiciels. Il comprend quatre etapes principales: la definition du but d'amelioration qui est raffine en sous-buts puis en questions, la specification des metriques permettant de repondre a ces questions et ainsi d'aider a la realisation du but initial, la verification de la specification de chaque metrique et la determination du type d'echelle qu'elles permettent de definir, et enfin leur validation pour verifier leur caractere predictif envers une metrique qui evalue un attribut externe de la qualite. Un lien significatif entre un ensemble de metriques evaluant des attributs internes et une metrique evaluant un attribut externe est une condition necessaire a l'amelioration des logiciels. Cela permet de modifier ou de calibrer les attributs internes d'un logiciel en cours de developpement afin d'ameliorer un aspect de sa qualite externe
APA, Harvard, Vancouver, ISO, and other styles
4

Kanoun, Karama. "Croissance de la sûreté de fonctionnement des logiciels : caractérisation, modélisation, évaluation." Toulouse, INPT, 1989. http://www.theses.fr/1989INPT091H.

Full text
Abstract:
Le comportement du logiciel est modelise en fonction de differentes situations: correction immediate ou differee par lot, changements de specifications. Pour chacune des situations un modele de connaissance est etabli. Ces modeles sont ensuite approches par des modeles d'action. Une methode d'evaluation de la surete de fonctionnement des logiciels est proposee
APA, Harvard, Vancouver, ISO, and other styles
5

He, Peng. "Conception et évaluation des systèmes logiciels de classifications de paquets haute-performance." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAA007/document.

Full text
Abstract:
La classification de paquets consiste à vérifier par rapport à un ensemble de règles prédéfinies le contenu des entêtes de paquets. Cette vérification permet d'appliquer à chaque paquet l'action adaptée en fonction de règles qu'il valide. La classification de paquets étant un élément clé du plan de données des équipements de traitements de paquets, elle est largement utilisée dans de nombreuses applications et services réseaux, comme les pare-feu, l'équilibrage de charge, les réseaux privés virtuels, etc. Au vu de son importance, la classification de paquet a été intensivement étudiée durant les vingt dernières années. La solution classique à ce problème a été l'utilisation de matériel dédiés et conçus pour cet usage. Néanmoins, l'émergence des centres de données, des réseaux définis en logiciel nécessite une flexibilité et un passage à l'échelle que les applications classiques ne nécessitaient pas. Afin de relever ces défis des plateformes de traitement multi-cœurs sont de plus en plus utilisés. Cette thèse étudie la classification de paquets suivant trois dimensions : la conception des algorithmes, les propriétés des règles de classification et la mise en place logicielle, matérielle et son optimisation. La thèse commence, par faire une rétrospective sur les diverses algorithmes fondés sur des arbres de décision développés pour résoudre le problème de classification de paquets. Nous proposons un cadre générique permettant de classifier ces différentes approches et de les décomposer en une séquence de « méta-méthodes ». Ce cadre nous a permis de monter la relation profonde qui existe ces différentes méthodes et en combinant de façon différentes celle-ci de construire deux nouveaux algorithmes de classification : HyperSplit-op et HiCuts-op. Nous montrons que ces deux algorithmes atteignent des gains de 2~200x en terme de taille de mémoire et 10%~30% moins d'accès mémoire que les meilleurs algorithmes existant. Ce cadre générique est obtenu grâce à l'analyse de la structure des ensembles de règles utilisés pour la classification des paquets. Cette analyse a permis de constater qu'une « couverture uniforme » dans l'ensemble de règle avait un impact significatif sur la vitesse de classification ainsi que l'existence de « structures orthogonales » avait un impact important sur la taille de la mémoire. Cette analyse nous a ainsi permis de développer un modèle de consommation mémoire qui permet de découper les ensembles de règles afin d'en construire les arbres de décision. Ce découpage permet jusqu'à un facteur de 2.9 d'augmentation de la vitesse de classification avec une réduction jusqu'à 10x de la mémoire occupé. La classification par ensemble de règle simple n'est pas le seul cas de classification de paquets. La recherche d'adresse IP par préfixe le plus long fourni un autre traitement de paquet stratégique à mettre en œuvre. Une troisième partie de cette thèse c'est donc intéressé à ce problème et plus particulièrement sur l'interaction entre la charge de mise à jour et la vitesse de classification. Nous avons observé que la mise à jour des préfixes longs demande plus d'accès mémoire que celle des préfixes court dans les structures de données d'arbre de champs de bits alors que l'inverse est vrai dans la structure de données DIR-24-8. En combinant ces deux approches, nous avons propose un algorithme hybride SplitLookup, qui nécessite deux ordres de grandeurs moins d'accès mémoire quand il met à jour les préfixes courts tout en gardant des performances de recherche de préfixe proche du DIR-24-8. Tous les algorithmes étudiés, conçus et implémentés dans cette thèse ont été optimisés à partir de nouvelles structures de données pour s'exécuter sur des plateformes multi-cœurs. Ainsi nous obtenons des débits de recherche de préfixe atteignant 40 Gbps sur une plateforme TILEPro64
Packet classification consists of matching packet headers against a set of pre-defined rules, and performing the action(s) associated with the matched rule(s). As a key technology in the data-plane of network devices, packet classification has been widely deployed in many network applications and services, such as firewalling, load balancing, VPNs etc. Packet classification has been extensively studied in the past two decades. Traditional packet classification methods are usually based on specific hardware. With the development of data center networking, software-defined networking, and application-aware networking technology, packet classification methods based on multi/many processor platform are becoming a new research interest. In this dissertation, packet classification has been studied mainly in three aspects: algorithm design framework, rule-set features analysis and algorithm implementation and optimization. In the dissertation, we review multiple proposed algorithms and present a decision tree based algorithm design framework. The framework decomposes various existing packet classification algorithms into a combination of different types of “meta-methods”, revealing the connection between different algorithms. Based on this framework, we combine different “meta-methods” from different algorithms, and propose two new algorithms, HyperSplit-op and HiCuts-op. The experiment results show that HiCuts-op achieves 2~20x less memory size, and 10% less memory accesses than HiCuts, while HyperSplit-op achieves 2~200x less memory size, and 10%~30% less memory accesses than HyperSplit. We also explore the connections between the rule-set features and the performance of various algorithms. We find that the “coverage uniformity” of the rule-set has a significant impact on the classification speed, and the size of “orthogonal structure” rules usually determines the memory size of algorithms. Based on these two observations, we propose a memory consumption model and a quantified method for coverage uniformity. Using the two tools, we propose a new multi-decision tree algorithm, SmartSplit and an algorithm policy framework, AutoPC. Compared to EffiCuts algorithm, SmartSplit achieves around 2.9x speedup and up to 10x memory size reduction. For a given rule-set, AutoPC can automatically recommend a “right” algorithm for the rule-set. Compared to using a single algorithm on all the rulesets, AutoPC achieves in average 3.8 times faster. We also analyze the connection between prefix length and the update overhead for IP lookup algorithms. We observe that long prefixes will always result in more memory accesses using Tree Bitmap algorithm while short prefixes will always result in large update overhead in DIR-24-8. Through combining two algorithms, a hybrid algorithm, SplitLookup, is proposed to reduce the update overhead. Experimental results show that, the hybrid algorithm achieves 2 orders of magnitudes less in memory accesses when performing short prefixes updating, but its lookup speed with DIR-24-8 is close. In the dissertation, we implement and optimize multiple algorithms on the multi/many core platform. For IP lookup, we implement two typical algorithms: DIR-24-8 and Tree Bitmap, and present several optimization tricks for these two algorithms. For multi-dimensional packet classification, we have implemented HyperCuts/HiCuts and the variants of these two algorithms, such as Adaptive Binary Cuttings, EffiCuts, HiCuts-op and HyperSplit-op. The SplitLookup algorithm has achieved up to 40Gbps throughput on TILEPro64 many-core processor. The HiCuts-op and HyperSplit-op have achieved up to 10 to 20Gbps throughput on a single core of Intel processors. In general, our study reveals the connections between the algorithmic tricks and rule-set features. Results in this dissertation provide insight for new algorithm design and the guidelines for efficient algorithm implementation
APA, Harvard, Vancouver, ISO, and other styles
6

Farenc, Christelle. "Ergoval : une méthode de structuration des règles ergonomiques permettant l'évaluation automatique d'interfaces graphiques." Toulouse 1, 1997. http://www.theses.fr/1997TOU10013.

Full text
Abstract:
Cette thèse propose une nouvelle méthode de structuration des règles ergonomiques permettant l'évaluation des interfaces graphiques. Cette méthode réalisée dans le cadre d'un contrat d'étude passé entre le SRTP (Service de Recherche Technique de la Poste) et le laboratoire LIS a été définie en vue d'être utilisée par des informaticiens et d'être intégrée dans un outil d'évaluation automatique de la présentation statique des interfaces. Pour fournir des résultats directement utilisables lors de la modification de l'interface et pour pouvoir implémenter la méthode dans un outil d'évaluation automatique, les règles ergonomiques ont été reformulées pour qu'elles s'appliquent directement aux objets de présentation, les connaissances nécessaires à l'évaluation ont été structurées de la manière suivante : * l'interface est décomposée suivant les objets de présentation qui la constituent, * une structure intermédiaire entre les objets de présentation et les règles ergonomiques a été défini. Cette structure, appelée typologie, correspond à une hiérarchie de classes qui regroupe les objets graphiques concernés par les mêmes règles ergonomiques. À la place de porter sur les objets graphiques, ces règles sont rattachées aux classes de la typologie. Une maquette de l'outil ERGOVAL, sous la forme d'un système expert, a été réalisée pour valider cette structuration des connaissances et pour définir les spécifications de l'outil final. De manière à pouvoir déterminer le champ d'application de l'outil, nous avons étudié la dimension automatique de l'outil d'évaluation, notamment la récupération automatique de la description de l'interface, et la dimension qualitative de l'évaluation représentée par le nombre et le niveau des règles ergonomiques intégrées dans l'outil. Nous avons ainsi défini la qualité d'une évaluation qui serait réalisée de manière totalement automatique et la qualité d'une évaluation qui intégrerait des règles ergonomiques de plus haut niveau et notamment des règles ergonomiques liées à la tâche
The thesis introduces a new method for structuring ergonomic rules in order to evaluate graphical user interface. This method performed in collaboration with the SRTP (post office technical research unit) aims to be used by computer experts and to be integrated in an automatic user interface evaluation tool : ERGOVAL. In order to provide information to developers in a way they can handle it to modify the interface, ergonomic rules were reformulated to concern directly graphical objects of the user interface. Knowledge involved in the evaluation was structured in this way : * a representation of the UI in terms of the interaction objects of the norm CUA was built : this is the decomposition of graphical objects * all graphical objects concerned by the same set of ergonomic rules are grouped together into classes of objects : the typology of graphic objects. . The resulting typology consists in several levels of abstraction, the graphical objects being the leaves of this typology. The links of this typology are types of links which have hierarchical properties, i. E. Each type inherits attributes from the parent type and associated rules. A mock-up of the ERGOVAL tool was made to validate knowledge structuration and to define specifications of the final tool. In order to determine the scale application, the automatic and qualitative dimensions were studied especially the automatic retrieval of interface description and the number and level of ergonomic rules integrated in the mock-up. Consequently, the quality of an automatic evaluation and an evaluation of high level ergonomic rules were determined
APA, Harvard, Vancouver, ISO, and other styles
7

Waeselynck, Hélène. "Vérification de logiciels critiques par le test statistique." Toulouse, INPT, 1993. http://www.theses.fr/1993INPT010H.

Full text
Abstract:
Les travaux presentes dans ce memoire concernent l'utilisation du test statistique en tant que technique de verification pour les logiciels critiques, c'est-a-dire presentant des contraintes de surete elevee. Le test statistique consiste a executer un programme avec des entrees aleatoires, le profil de test et le nombre d'entrees a generer etant determines a partir de criteres bases sur l'analyse structurelle ou fonctionnelle de ce programme: ce mode de generation probabiliste permet de compenser l'imperfection des criteres actuels vis-a-vis des fautes recherchees, imperfection qui les rend d'autant plus insuffisants dans le cas de logiciels critiques. Le potentiel de l'approche proposee est justifie par une etude theorique sur les causes d'echec d'un test; sa faisabilite et son efficacite sont illustrees experimentalement sur un programme issu du domaine nucleaire. Pour le test unitaire, on montre l'efficacite d'une approche combinant le test statistique structurel avec un test deterministe des valeurs aux limites. Pour le test de composants logiciels complexes, la conception du test statistique s'effectue a partir d'une specification modulaire comprenant des modeles comportementaux. Des modeles classiques sont d'abord envisages (machines a etats finis et tables de decision); puis l'approche est affinee en considerant une specification basee sur des modeles plus sophistiques: les statecharts
APA, Harvard, Vancouver, ISO, and other styles
8

Babau, Jean-Philippe. "Etude du comportement temporel des applications temps réel à contraintes strictes basée sur une analyse d'ordonnançabilité." Poitiers, 1996. http://www.theses.fr/1996POIT2305.

Full text
Abstract:
Les applications temps reel a contraintes strictes sont des applications multitaches ou les contraintes temporelles (delais d'execution) doivent etre strictement satisfaites. La methodologie developpee permet la validation de ce type d'applications. L'environnement de conception integre la prise en compte des requetes periodiques et aperiodiques et des schemas de programmes exprimant des cooperations fixes ou variables entre les taches. Apres transformation de ce modele comportemental de l'application en un ensemble de taches sous forme normale associees a un graphe de precedence, la validation est basee sur une analyse d'ordonnancabilite. Cette validation est effectuee sur les comportements realistes de l'application et permet d'evaluer les performances temporelles de l'application. Une optimisation des caracteristiques temporelles est alors possible afin d'ameliorer ses performances
APA, Harvard, Vancouver, ISO, and other styles
9

Charlet, Célina. "Raffiner pour vérifier des systèmes paramétrés." Besançon, 2003. http://www.theses.fr/2003BESA2054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Guégain, Edouard. "Optimisation de logiciels par leur configuration." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB020.

Full text
Abstract:
Le domaine du génie logiciel évolue rapidement, exposant les développeurs à collection d'outils, langages, framework et paradigmes en constante croissance.De plus, chacun de ces composant peut avoir sa propre configuration interne.Ainsi, concevoir un nouveau logiciel consiste à sélectionner des composants de cette collection, un processus similaire à la création d'une configuration.Le critère pour configurer de tels systèmes est trop souvent la facilité de développement, ce qui cause des obésiciels sur-dimensionnés et consommateur en énergie.Ce paradigme n'est pas aligné avec les considérations frugales et environnementales.Cette dissertation s'intéresse donc à la possibilité d'utiliser la configuration des logiciels pour optimiser leur performance.Une attention spécifique est portée à la consommation énergétique et la taille de ces logiciels.Un prérequis pour optimiser un système est de comprendre sa performance actuelle.Pour mieux comprendre ce sujet, le logiciel configurable JHipster a été analysé de façon empirique.L'analyse exhaustive de la performance de ses configuration, au travers de différents indicateurs, a montré à quel point la configuration impactent ses performances.Cette compréhension de la performance a permit de créer de configuration de JHipster à haute performance.Ces configuration à haute performance a été créees manuellement, ce qui n'est possible qu'avec un petit espace des configurations.Un algorithme a donc été créé pour automatiser ce processus, et ainsi l'adapter aux plus grands espaces de configuration.Cependant, optimiser une configuration en sélectionnant des options à haute performance n'est pas suffisant, car les options interagissent entre elles:par exemple, dans certaines situation, deux options à haute performance peuvent sous-performer quand elles sont assemblées.L'algorithme d'optimisation a donc été adapté pour tirer profit de ces comportements.L'application de cet algorithme a un large ensemble de configurations a montré que la plupart d'entre elles atteignent une performance presque optimale, avec seulement un nombre limité de modification.Cependant, les contraintes de performance ne se limitent pas à un seul indicateur.La consommation énergétique d'un logiciel n'est pas toujours l'indicateur le plus impactant à optimiser.L'algorithme d'optimisation a donc dû être généralisé pour supporter l'optimisation de plusieurs indicateurs simultanément.Cet algorithme généralisé a été validé sur un couple d'indicateurs de performance: le temps d'exécution et la taille d'un logiciel.Cette validation a montré que la moitié des configurations peut atteindre leur optimum local respectif en modifiant une seule option.De plus, en appliquant cet algorithme à l'exhaustivité d'un espace de configuration, il a été possible de suivre comment il navigue l'espace de configuration à la recherche de configurations optimales, ce qui a mit en lumière certaines limites de l'algorithme, qui peut donc être encore amélioré dans de futures travaux.Dans son état actuel, l'algorithme a été publié sous la forme d'un outil open-source sous le nom d'ICO
The field of software engineering evolves rapidly, exposing practitioners to an ever-increasing collection of tools, languages, frameworks, and paradigms.Each of these components can have its own, internal configuration.Thus, designing a new software system consist in selecting components from this collection, which is akin to creating a configuration.The criterion to configure such systems is too often the ease of development, which leads to oversized, power-hungry bloatware.This paradigm is not aligned with frugal or environmental concerns.Thus, this dissertation looks into the ability to leverage the configuration of a system to optimize its performance.A specific focus is made on energy consumption and the size of software systems.A prerequisite to optimizing a system is to understand its current performance.To gain insight into this subject, the configuration software JHipster was empirically analyzed.Exhaustively assessing the performances of configurations of JHipster, wrt several indicators, showed that different configurations have indeed different performances.Thus, relying on performance insight, it is possible to create high-performance configurations of JHipster.Furthermore, some performance indicators proved correlated across configurations.Therefore, the optimization goal can be simplified by ignoring redundant performance indicators.The process of creating optimized configurations of JHipster was performed manually, which is only possible in smaller configuration spaces.To tackle larger configuration spaces, an algorithm was created, defining how to assess the performance of each option, and then how to improve a given configuration using such performance data.However, optimizing a configuration by selecting high-performance options brought out limitations, as options can interact with each other:in some situations, pairing high-performance options may result in subpar performances.Similarly, low-performance options can prove unexpectedly efficient when paired together.Thus, the optimization algorithm has been designed to leverage such specific behaviors.Applying this algorithm to a large set of configurations showed that most of them can reach near-optimal performances, with only a limited set of modifications.However, performance constraints are not limited to a single performance indicator.Depending on the context, the energy consumption of a system may not be the single most impactful indicator to optimize.Thus, the optimization algorithm must be generalized to support several performance indicators.This generalized algorithm has been validated on a pair of performance indicators: the execution time and the size of the software.The main highlight of this validation is that half of all configurations can reach a local optimum by changing a single setting.Furthermore, by exhaustively applying the algorithm to the configuration space of a system, it was possible to follow how it navigates the configuration space to find optimal configurations.Analyzing this navigation highlighted current limitations in the algorithm, which can thus be further improved as future work.In its current state, the algorithm was published as an open-source tool under the name ICO
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Évaluation des logiciels"

1

Owston, Ronald Davis. Software evaluation: A criterion-based approach. Scarborough, Ont: Prentice-Hall Canada, 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Software metrics: A rigorous approach. London: Chapman & Hall, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Lawrence, Pfleeger Shari, ed. Software metrics: A rigorous and practical approach. 2nd ed. London: PWS Pub., 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Software metrics: A rigorous approach. London: International Thomson Computer Press, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Usability of complex information systems: Evaluation of user interaction. Boca Raton: Taylor & Francis, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Charette, Robert N. Software engineering risk analysis and management. New York: Intertext Publications, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Programme for International Student Assessment. and Organisation for Economic Co-operation and Development., eds. PISA 2003 data analysis manual: SAS users. Paris, France: OECD, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Programme for International Student Assessment. and Organisation for Economic Co-operation and Development., eds. PISA 2003 data analysis manual: SAS users. Paris, France: OECD, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Dill, David L. Computer Aided Verification: 6th International Conference, Cav '94, Stanford, California, Usa, June 21-23, 1994 : Proceedings (Lecture Notes in Computer Science). Springer, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Manage Software Testing. AUERBACH, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Évaluation des logiciels"

1

"Annexe 3 : évaluation par compétences (avec le logiciel Sacoche)." In Mathématiques récréatives, 248. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2319-2-072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

"Annexe 3 : évaluation par compétences (avec le logiciel Sacoche)." In Mathématiques récréatives, 249–52. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2319-2-073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"Annexe 3 : évaluation par compétences (avec le logiciel Sacoche)." In Mathématiques récréatives, 248. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2319-2.c072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

"Annexe 3 : évaluation par compétences (avec le logiciel Sacoche)." In Mathématiques récréatives, 249–52. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2319-2.c073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography