Academic literature on the topic 'Modèle de boîte noire'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modèle de boîte noire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Modèle de boîte noire":

1

Champagne, François, and Jean-Louis Denis. "Pour une évaluation sensible à l’environnement des interventions : l’analyse de l’implantation." Service social 41, no. 1 (April 12, 2005): 143–63. http://dx.doi.org/10.7202/706562ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cet article, les auteurs exposent une méthode pour faciliter l'analyse de l'implantation des interventions. Cette forme d'évaluation a son origine dans les limites reconnues du modèle de la « boîte noire », modèle prédominant dans l'analyse des effets des interventions. Elle vise à expliquer les conditions de mise en oeuvre et les processus de production des effets des interventions. Plus précisément, l'analyse de l'implantation comprend trois composantes, soit l'analyse de l'influence : 1) des déterminants contextuels sur le degré de mise en oeuvre des interventions, 2) de l'interaction entre le contexte d'implantation et l'intervention sur les effets observés, et 3) des variations dans l'implantation sur son efficacité. L'utilité de ce type d'évaluation est d'accroître la validité externe des recherches évaluatives.
2

Ambroise, B. "Génèse des débits dans les petits bassins versants ruraux en milieu tempéré : 2 - Modélisation systémique et dynamique." Revue des sciences de l'eau 12, no. 1 (April 12, 2005): 125–53. http://dx.doi.org/10.7202/705346ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La deuxième partie de cette synthèse bibliographique sur la genèse des débits montre comment les connaissances acquises sur le fonctionnement des petits bassins ruraux (cf. Partie 1) peuvent être utilisées pour les modéliser. Elle présente les différents types de modèles hydrologiques (empiriques globaux de type "boîte noire", conceptuels globaux ou semi-spatialisés, physiques spatialisés, physico-conceptuels semi-spatialisés) disponibles pour générer des chroniques événementielles ou continues, et déduit de l'analyse de leurs avantages et limites respectifs certaines recommandations pour leur choix et leur usage. Elle indique ensuite différents problèmes rencontrés dans toute modélisation, et quelques pistes possibles pour les résoudre: incorporation des flux couplés à l'eau dans les modèles hydrologiques, erreurs liées à la structure du modèle (limites et simplifications théoriques, approximations numériques, discrétisations temporelle et spatiale), problèmes métrologiques et méthodologiques limitant la disponibilité des données, hétérogénéités à toutes les échelles limitant l'adéquation des données pour paramétrer les modèles, calage du modèle limitant son aptitude à simuler des scénarios de changement. Elle souligne la nécessité d'une validation multicritère des modèles et d'une estimation de l'incertitude sur les simulations générée par ces diverses sources d'erreurs, ainsi que le besoin d'une meilleure interaction entre expérimentation de terrain et modélisation.
3

Flécher, Marion. "Produire l’auto-engagement au travail. Modalités du travail d’organisation dans une start-up en croissance." La Revue de l'Ires N° 109, no. 1 (August 10, 2023): 3–34. http://dx.doi.org/10.3917/rdli.109.0001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Alors que de plus en plus d’entreprises cherchent à moderniser leurs pratiques managériales en s’inspirant du modèle organisationnel des start-up, on en sait encore peu sur la manière dont le travail est concrètement organisé au sein de ces jeunes entreprises innovantes. À partir d’une enquête ethnographique menée par observation participante dans une start-up en hypercroissance, cet article se propose d’ouvrir la boîte noire de ces entreprises pour rendre compte du travail d’organisation qui y est déployé et de ses effets sur le travail et les travailleurs. Notre enquête montre notamment comment l’accent mis sur la proximité relationnelle, le bien-être au travail, l’auto-gestion et la responsabilité des travailleurs et travailleuses permet de produire des formes d’engagement au travail qui sont d’autant plus efficaces qu’elles viennent de l’auto-contrainte de ces derniers. Cet article met également en évidence les conséquences de la financiarisation de ces entreprises sur les pratiques managériales et le travail d’organisation qui, sous l’effet de la croissance rapide des effectifs et de la pression accrue des actionnaires, deviennent plus formels, plus hiérarchiques et davantage centrés sur la productivité, ce qui tend à dégrader les conditions de travail, mais également les relations de travail.
4

QUENTIN, M., I. BOUVAREL, D. BASTIANELLI, and M. PICARD. "Quels « besoins » du poulet de chair en acides aminés essentiels ?" INRAE Productions Animales 17, no. 1 (March 20, 2004): 19–34. http://dx.doi.org/10.20870/productions-animales.2004.17.1.3550.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour équilibrer les acides aminés essentiels d’un régime, le nutritionniste dispose de tables de recommandations moyennes issues de méta-analyses bibliographiques. L’estimation du besoin en un acide aminé essentiel dépend du critère de production que l’on cherche à optimiser et de la méthodologie adoptée pour analyser les résultats expérimentaux. Les conditions d’élevage et les types d’animaux étudiés expliquent une autre part de la variabilité des recommandations. Les moyennes issues des méta-analyses de données bibliographiques sont finalement assez peu précises et d’autant plus difficiles à adapter aux conditions pratiques qu’elles concernent essentiellement les poulets de chair à croissance rapide dans des conditions optimales. L’intégration des bases du métabolisme énergétique et protéique à l’aide de modèles mécanistes peut constituer un moyen complémentaire de quantifier les effets d’une recommandation en acide aminé essentiel dans des conditions variables. La modélisation permet non seulement la synthèse des connaissances acquises par l’expérimentation, mais également la prise en compte des interactions multiples entre plusieurs facteurs de variation. Dans la pratique, les modèles commercialisés permettent de mesurer les effets des principales caractéristiques de l’aliment et des conditions d’élevage sur la croissance ou les besoins en acides aminés des poulets de chair. Leurs résultats semblent suffisamment précis pour une utilisation pratique, mais leur présentation de type «boîte noire» et la complexité de leur fonctionnement sont un frein à leur mise à jour ou à leur adaptation à de nouveaux modes de production. Le modèle INAVI, présente une structure plus ouverte à l’utilisateur qui permet une meilleure adaptation aux diverses situations d’élevage. INAVI prédit la croissance des animaux en se basant sur l’effet des conditions d’élevage et d’alimentation sur l’ajustement de l’ingestion.
5

Robette, Nicolas. "Trees and forest. Recursive partitioning as an alternative to parametric regression models in social sciences." Bulletin of Sociological Methodology/Bulletin de Méthodologie Sociologique 156, no. 1 (October 2022): 7–56. http://dx.doi.org/10.1177/07591063221128325.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Arbres et forêt. Le partitionnement récursif comme alternative aux modèles de régression paramétriques dans les sciences sociales. Les modèles de régression paramétrique sont devenus l’outil dominant de la sociologie quantitative. Cette domination n’est pas sans poser problème et de nombreuses critiques ont été exprimées, tant sur le plan statistique qu’épistémologique. Pourtant, le développement de la fouille de données, puis de l’apprentissage automatique, a conduit à l’émergence d’approches méthodologiques permettant de surmonter la plupart des limites des modèles de régression paramétrique, pour les différents types d’utilisation qui intéressent les sciences sociales. Nous soutenons que le partitionnement récursif, en particulier, peut être très utile pour les sciences sociales. En effet, cette approche présente un certain nombre d’avantages techniques par rapport à la régression paramétrique et, surtout, elle est cohérente avec une conception des déterminations sociales en termes de configurations de facteurs interdépendants (et non d’additions de facteurs indépendants). Dans un deuxième temps, nous passons en revue une série d’outils permettant d’interpréter les résultats obtenus par les algorithmes de partitionnement récursif. Ensemble, ils forment une boîte à outils très complète pour les sciences sociales et montrent que le partitionnement récursif n’est plus une boîte noire dès lors que les outils d’interprétation appropriés sont mobilisés. Enfin, nous illustrons les méthodes présentées à l’aide d’exemples sociologiques sur le monde du cinéma. Ce faisant, nous montrons que ces méthodes permettent de traiter différents types de problèmes qui se posent en sciences sociales lorsque des régressions paramétriques sont habituellement utilisées, en l’occurrence l’étude des effets de structure et la hiérarchisation des facteurs explicatifs.
6

Jalette, Patrice, Jean-Noël Grenier, and Jérémie Hains-Pouliot. "Restructuration de la fonction publique québécoise : configurations et conséquences disparates." Articles 67, no. 4 (December 5, 2012): 567–89. http://dx.doi.org/10.7202/1013195ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé L’existence d’un modèle homogène de réforme de l’administration publique basé sur la « nouvelle gestion publique » est de plus en plus remise en question dans la littérature. Les recherches disponibles montrent également que les restructurations dans le secteur public engendrent généralement une détérioration des conditions de travail. Notre étude contribue de manière originale à la littérature en démontrant la variété des pratiques de restructuration au sein de l’administration publique de même que la variété de leurs conséquences pour les employés dans le cadre d’un même projet de réforme. Ces constats se basent sur notre étude de la restructuration de la fonction publique québécoise enclenchée par la mise en oeuvre du Plan de modernisation présenté en 2004 par le gouvernement libéral. Nous avons ainsi ouvert la « boîte noire » du secteur public en examinant les configurations variées de cette restructuration et la diversité de ses conséquences pour les employés dans les unités administratives par le biais d’une enquête par questionnaire menée auprès de délégués syndicaux. Nos résultats montrent tout d’abord que les unités ont fait un usage différent des pratiques de remplacement des départs et d’externalisation alors que nous avons recensé six configurations différentes qui vont d’un quasi statu quo (25 % des unités) à une restructuration en profondeur (23,8 % des unités). La nature des fonctions assumées par les unités, de même que les pressions, les traditions politiques et l’héritage institutionnel sont les explications avancées à cette diversité des configurations. Notre recherche montre aussi que ces diverses configurations conduisent à des résultats différenciés pour les employés du secteur public. Globalement, les conséquences associées à la modernisation sont une intensification du travail, une détérioration du climat social dans les unités, des attentes de performance mitigées ainsi qu’un support au changement – sous la forme de l’accès à la formation – peu perceptible.
7

Katz, Martin R. "Une nouvelle technologie dans la guidance : l'ordinateur interactif." L’Orientation scolaire et professionnelle 17, no. 2 (1988): 109–23. http://dx.doi.org/10.3406/binop.1988.1661.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’interactivité des ordinateurs, qui s’est développée à partir des années 60, a fourni une opportunité sans précédent de développement des systèmes informatisés d’aide au choix professionnel, Ces systèmes offrent, à coût réduit, une aide individuelle accessible à un large public. Tenant compte du fait que chaque utilisateur peut concrétiser une combinaison unique de besoins, expériences, circonstances, valeurs, intérêts, capacités, styles et perceptions, un constructeur de logiciel pourra permettre à un système adéquatement planifié de répondre à ces différences individuelles. Non seulement un tel système peut stocker, retrouver et manipuler une grande quantité d’informations, mettant ainsi de vastes ressources à la disposition de chacun, mais encore il pourra connecter entre elles de nombreuses variables -personnelles, professionnelles et éducatives- et les combiner de façon spécifique pour chaque utilisateur. Ces capacités ne sont cependant pas suffisantes pour qu’on puisse être certain que tout système sera de qualité excellente. La valeur d’un système dépend principalement de sa structure conceptuelle, de la puissance de son support théorique, de la cohérence de ses fonctions et de sa structure. La «boîte noire» de la théorie sous-jacente à chaque système devra être ouverte et soumise à la lumière de l’évaluation. Des exemples de principes, recherches, modèle et structures en rapport avec le «System of Interactive Guidance and Information» (S.I.G.I.) et S.I.G.I. PLUS sont utilisés ici pour illustrer les liens entre la théorie et la pratique.
8

Grundy, David. "“The Arc of Struggle”: Poetry and Defeat in the Work of Sean Bonney." Études anglaises Vol. 76, no. 1 (September 21, 2023): 10–30. http://dx.doi.org/10.3917/etan.761.0010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article se penche sur l’œuvre de Sean Bonney de 2010 à 2019 afin de réfléchir à certaines des façons dont les poètes britanniques contemporains ont figuré la défaite politique à une époque de gouvernements de droite, tant au niveau national qu’international. Bonney était une figure clé d’une scène restreinte mais florissante de poètes expérimentaux contemporains basés au Royaume-Uni qui, dans leurs œuvres, se sont souvent intéressés à cet environnement politique. Le travail de Bonney, à la fois en tant que poète et chercheur, a formé un ensemble que l’on pourrait schématiquement qualifier de « poétique militante » et qui englobe la tradition radicale noire américaine, l’école de Francfort, le surréalisme européen et l’anarchisme et le radicalisme britanniques d’Abiezer Coppe à Blake. Cet ensemble constitue à la fois une série de modèles passés que Bonney choisit comme généalogie de son œuvre — une sorte de famille poétique qu’il se constitue — et une série d’outils permettant de penser le moment contemporain. De même, cet article soutient que l’œuvre de Bonney sert elle aussi de boîte à outils pour réfléchir à la conjoncture actuelle et, en particulier, au problème de la défaite politique.
9

Zahar, Y., and J. P. Laborde. "Une méthode stochastique pour la prédétermination des fluctuations probables des durées de service des réservoirs collinaires en Tunisie." Revue des sciences de l'eau 11, no. 1 (April 12, 2005): 25–42. http://dx.doi.org/10.7202/705295ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un modèle de génération stochastique de pluies est couplé ˆ un modèle de calcul de l'index de leurs érosivités, dérivé de l'Equation Universelle de l'Erosion des Sols (USLE). Le premier fonctionne au pas de temps de 30mn, il est calé sur une série pluviographique de 15 ans de la Tunisie centrale. Le second modèle fonctionne par calcul automatique des cumuls et moyennes de l'érosivité des pluies générées. En mode opérationnel, ces deux modèles sont exploités pour simuler les aléas de l'envasement annuel des réservoirs collinaires de la zone aride et semi-aride de la Tunisie : le bassin versant est considéré comme une "boite noire" où l'agressivité climatique est la principale variable (quelques pluies extrêmes font l'essentiel de l'érosion), les autres facteurs sont considérés constants durant la durée de service du réservoir. Nous observons sur trois bassins versants répartis du nord au sud de la frange comprise entre 500mm et 250mm (de pluie moyenne annuelle), que la distribution annuelle des index d'érosivité des pluies peut être assimilée ˆ la distribution des transports solides. Sur l'un de ces bassins versants (OUED EL HISSIANE : 15,9 ) nous observons également que les valeurs extrêmes de l'érosion sont proportionnelles aux valeurs extrêmes de l'index d'érosivité des pluies. Seulement l'automne et le printemps sont des saisons érosives. Dans le cas de petits bassins versants non-jaugés, comme ceux pour l'aménagement de réservoirs collinaires, le générateur nous permet de constituer des chroniques d'érosivité de pluie. Si on considère que les autres paramètres sont constants, ce modèle nous aide à déterminer les intervalles de confiance de durées de service probables. Une analyse de sensibilité par la modification des paramètres du générateur (nombre d'épisodes, hauteur de pluie, maximum et durée d'averse etc ...) valide la méthodologie. De même une analyse régionale montre les faibles fluctuations des résultats sur l'étendue aride et semi-aride de la Tunisie. Ces deux résultats nous ont conduit à proposer un abaque régional de prédétermination des fluctuations probables des durées de service des réservoirs collinaires, compte tenu de la connaissance préalable de la durée de service moyenne probable. Cette méthode directement opérationnelle peut être utilisée pour l'aménagement, la planification, et la gestion des réservoirs collinaires. Elle améliore les études de faisabilité, notamment lorsqu'on la couple aux calculs économiques.
10

Vachon, Georges-André. "La boîte noire." Études françaises 31, no. 2 (1995): 177. http://dx.doi.org/10.7202/035991ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Modèle de boîte noire":

1

Akerma, Mahdjouba. "Impact énergétique de l’effacement dans un entrepôt frigorifique : analyse des approches systémiques : boîte noire / boîte blanche." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS187.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les entrepôts frigorifiques et chambres froides forment, de par l'inertie thermique de la masse des produits, une source importante de stockage thermique rapidement accessible et fortement attractive pour répondre aux besoins d’effacement électrique. Cependant, le risque pour le produit lors des fluctuations de température liées aux périodes d’effacement et la crainte d’une surconsommation énergétique, limitent le recours aux effacements par les industriels et acteurs du froid alimentaire. Cette thèse vise à caractériser l’effacement électrique des entrepôts en apportant un éclairage sur le comportement thermique d’un système, en termes de fluctuation de température et de consommation électrique. Une étude expérimentale a été mise en œuvre afin d’étudier plusieurs scénarios d’effacement (durée, fréquence et conditions opératoires) et de développer de nouveaux indicateurs pour caractériser l’impact de l’effacement sur le comportement thermique et énergétique des systèmes frigorifiques. Cette étude a mis en avant, l’importance de l’état de chargement pour limiter la remontée de température de l’air, et réduire l’impact de l’effacement sur les produits entreposés. Par ailleurs, le potentiel d’application de l’effacement dans le cas d’un entrepôt frigorifique ou d’une chambre froide a été évalué, en s’appuyant sur le développement des deux approches de modélisation « boîte noire » (apprentissage automatique par des réseaux de neurones artificiels de type Deep Learning) et « boîte blanche » (physique). Une possibilité d’interaction entre ces deux approches a été proposée. Elle est fondée sur l’utilisation des modèles boîte noire pour la prédiction et l’emploi du modèle boîte blanche pour générer les données d’entrée et de sortie
Refrigerated warehouses and cold rooms, mainly used for food conservation, constitute available storage cells; they can be considered as a network of "thermal batteries" ready to be used and one of the best existing solutions to store and delay electricity consumption. However, the risk related to temperature fluctuations of products due to periods of demand response - DR* and the risk of energy overconsumption limit the use of this strategy by industrials in food refrigeration. The present PhD thesis aims to characterize the electrical DR of warehouses and cold rooms by examining the thermal behavior of those systems, in terms of temperature fluctuation and electrical consumption. An experimental set-up was developed to study several DR scenarios (duration, frequency and operating conditions) and to propose new indicators to characterize the impact of DR periods on the thermal and energy behavior of refrigeration systems. This study has highlighted the importance of the presence of load to limit the temperature rise and thus to reduce the impact on stored products. The potential for DR application in the case of a cold store and a cold room was assessed, based on the development of two modeling approaches: “black box” (Machine Learning by artificial neural networks using Deep Learning models) and “white box” (physics). A possibility of interaction between these two approaches has been proposed, based on the use of black box models for prediction and the use of the white box model to generate input and output data
2

Muzammil, Shahbaz Muhammad. "Rétro-conception de modèles d'automates étendus de composant logiciels boîte-noire pour le test d'intégration." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0166.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème principal auquel on est confronté dans l'utilisation d'outils automatiques de validation (test ou vérification) est l'absence de spécification des composants également connus comme boîtes-noires. Même lorsqu'une spécification a été disponible à un stade antérieur, elle est souvent incomplète. C'est pourquoi une bonne part de la validation consiste à émettre et valider des hypothèses sur les composants assemblés. Nous proposons une solution pour l'intégration de composants boîtes-noires par une approche d'apprentissage. Cette approche apprend le modèle du composant sous la forme d’une machine d'état finis entrées/sorties (avec des paramètres). Ensuite, nous proposons un framework de test pour les systèmes intégrés basé sur les modèles appris. Nous avons validé notre approche sur plusieurs études de cas fournies par France Telecom R&D et présentons leurs résultats
A challenging issue in component based software engineering is to deliver quality of service. When components come from third-party sources (aka black boxes), the specifications are often absent/insufficient for their formal analysis. The thesis addresses the problem of uncovering the behaviors of black box software components to support testing and analysis of the integrated system that is composed of such components. We propose to learn finite state machine models (where transitions are labelled with parameterized inputs/outputs) and provide a framework for testing and analyzing the integrated system using the inferred models. The approach has been validated on various case studies provides by France Telecom that has produced encouraging results
3

Benni, Benjamin. "Un modèle de raisonnement pour les opérateurs de composition logicielle décrits en boite noire." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4096.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité des systèmes informatiques a rendu nécessaire leur découpage avant de les recomposer. Cette séparation est un défi connu et les développeurs découpent déjà les tâches au préalable. Néanmoins, séparer sans considérer la recomposition finale entraine des réunifications hâtives et chronophages. Cette composition doit mener au bon et meilleur système avec le minimum d'effort humain. Les opérateurs de composition sont souvent ad-hoc et développés par des non-spécialistes. Ils ne respectent pas de formalismes de haut-niveau et deviennent trop complexes ou informels pour pouvoir raisonner. Nous les appelons des "boites-noires": les techniques nécessitant d'en connaitre l'intérieur ne peuvent être appliquées. Or, ces boites noires doivent garantir des propriétés : d'aucun doit vérifier son idempotence pour l'utiliser dans un contexte distribué ; connaitre son temps d'exécution pour des systèmes réactifs ; vérifier des conflits pour le confronter à des règles d'entreprise. Aucun de ces besoins n'est spécifique à un domaine applicatif. Dans cette thèse, nous présentons une approche indépendante du domaine qui permet, sur des opérateurs existants, (i) de raisonner sur des équations de composition pour (ii) les composer en sécurité, en (iii) proposant une vérification de propriétés similaires à celles de l’état de l’art. Nous avons validé cette approche sur des domaines différents : 19 versions du noyau Linux avec 54 règles de réécriture, réparé 13 « antipatrons » dans 22 applications Android et validé son efficacité sur la composition de 20k images Docker
The complexity of software systems made it necessary to split them up and reunite them afterward. Separating concerns is a well-studied challenge and teams separate the work to be done beforehand. Still, separating without considering the recomposition leads to rushed, unsafe, and time-consuming recomposition. The composition should create the right and best system with minimal human effort. Composition operators are often ad-hoc solutions developed by non-specialist development teams. They are not developed using high-level formalism and end up being too complicated or too poorly formalized to support proper reasonings. We call them "black-boxes" as existing techniques requiring knowledge of its internals cannot be applied or reused. However, black-box operators, like others, must ensure guarantees: one must assess their idempotency to use them in a distributed context; provide an average execution time to assess usage in a reactive system; check conflicts to validate that the composed artifact conforms to business properties. Despite the black-box aspect, none of these properties are domain-specific. In this thesis, we present a domain-independent approach that enables (i) reasonings on composition equation, (ii) to compose them safely, (iii) by assessing properties similar to the ones from the state-of-the-art. We validated the approach in heterogeneous application domains: 19 versions of Linux kernel with 54 rewriting rules, fixing 13 antipatterns in 22 Android apps, and validating the efficiency of the approach on the composition of 20k Docker images
4

Irfan, Muhammad Naeem. "Analyse et optimisation d'algorithmes pour l'inférence de modèles de composants logiciels." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00767894.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les Components-Off-The-Shelf (COTS) sont utilisés pour le développement rapide et efficace de logiciels tout en limitant le coût. Il est important de tester le fonctionnement des composants dans le nouvel environnement. Pour les logiciels tiers,le code source des composants, les spécifications et les modèles complets ne sont pas disponibles. Dans la littérature de tels systèmes sont appelés composants "boîte noire". Nous pouvons vérifier leur fonctionnement avec des tests en boîte noire tels que le test de non-régression, le test aléatoire ou le test à partir de modèles. Pour ce dernier, un modèle qui représente le comportement attendu du système sous test(SUT) est nécessaire. Ce modèle contient un ensemble d'entrées, le comportement du SUT après stimulation par ces entrées et l'état dans lequel le système se trouve.Pour les systèmes en boîte noire, les modèles peuvent être extraits à partir des traces d'exécutions, des caractéristiques disponibles ou encore des connaissances des experts. Ces modèles permettent ensuite d'orienter le test de ces systèmes.Les techniques d'inférence de modèles permettent d'extraire une information structurelle et comportementale d'une application et de la présenter sous forme d'un modèle formel. Le modèle abstrait appris est donc cohérent avec le comportement du logiciel. Cependant, les modèles appris sont rarement complets et il est difficile de calculer le nombre de tests nécessaires pour apprendre de façon complète et précise un modèle.Cette thèse propose une analyse et des améliorations de la version Mealy de l'algorithme d'inférence L* [Angluin 87]. Elle vise à réduire le nombre de tests nécessaires pour apprendre des modèles. La version Mealy de L* nécessite d'utiliser deux types de test. Le premier type consiste à construire les modèles à partir des sorties du système, tandis que le second est utilisé pour tester l'exactitude des modèles obtenus. L'algorithme utilise ce que l'on appelle une table d'observation pour enregistrer les réponses du système.Le traitement d'un contre-exemple peut exiger d'envoyer un nombre conséquent de requêtes au système. Cette thèse aborde ce problème et propose une technique qui traite les contre-exemples de façon efficace. Nous observons aussi que l'apprentissage d'un modèle ne nécessite pas de devoir remplir complètement ces tables. Nous proposons donc un algorithme d'apprentissage qui évite de demander ces requêtes superflues.Dans certains cas, pour apprendre un modèle, la recherche de contre-exemples peut coûter cher. Nous proposons une méthode qui apprend des modèles sans demander et traiter des contre-exemples. Cela peut ajouter de nombreuses colonnes à la table d'observation mais au final, nous n'avons pas besoin d'envoyer toutes les requêtes. Cette technique ne demande que les requêtes nécessaires.Ces contributions réduisent le nombre de tests nécessaires pour apprendre des modèles de logiciels, améliorant ainsi la complexité dans le pire cas. Nous présentons les extensions que nous avons apportées à l'outil RALT pour mettre en oeuvre ces algorithmes. Elles sont ensuite validées avec des exemples tels que les tampons, les distributeurs automatiques, les protocoles d'exclusion mutuelle et les planificateurs.
5

Romero, Ugalde Héctor Manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail
This report concerns the research topic of black box nonlinear system identification. In effect, among all the various and numerous techniques developed in this field of research these last decades, it seems still interesting to investigate the neural network approach in complex system model estimation. Even if accurate models have been derived, the main drawbacks of these techniques remain the large number of parameters required and, as a consequence, the important computational cost necessary to obtain the convenient level of the model accuracy desired. Hence, motivated to address these drawbacks, we achieved a complete and efficient system identification methodology providing balanced accuracy, complexity and cost models by proposing, firstly, new neural network structures particularly adapted to a very wide use in practical nonlinear system modeling, secondly, a simple and efficient model reduction technique, and, thirdly, a computational cost reduction procedure. It is important to notice that these last two reduction techniques can be applied to a very large range of neural network architectures under two simple specific assumptions which are not at all restricting. Finally, the last important contribution of this work is to have shown that this estimation phase can be achieved in a robust framework if the quality of identification data compels it. In order to validate the proposed system identification procedure, application examples driven in simulation and on a real process, satisfactorily validated all the contributions of this thesis, confirming all the interest of this work
6

Romero, ugalde Héctor manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00869428.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail.
7

Ouenzar, Mohammed. "Validation de spécifications de systèmes d'information avec Alloy." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6594.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent mémoire propose une investigation approfondie de l’analyseur Alloy afin de juger son adaptabilité en tant que vérificateur de modèles. Dans un premier temps, l’étude dresse un tableau comparatif de six vérificateurs de modèles, incluant Alloy, afin de déterminer lequel d’entre eux est le plus apte à résoudre les problématiques de sécurité fonctionnelle posées par les systèmes d’information. En conclusion de cette première phase, Alloy émerge comme l’un des analyseurs les plus performants pour vérifier les modèles sur lesquels se fondent les systèmes d’information. Dans un second temps, et sur la base des problématiques rencontrées au cours de cette première phase, l’étude rapporte une série d’idiomes pour, d’une part, présenter une manière optimisée de spécifier des traces et, d’autre part, trouver des recours afin de contourner les limitations imposées par Alloy. À ces fins, le mémoire propose deux nouveaux cas d’espèce, ceux d’une cuisinière intelligente et d’une boîte noire, afin de déterminer si oui ou non l’analyseur est capable de gérer les systèmes dynamiques possédant de nombreuses entités avec autant d’efficacité que les systèmes qui en possèdent moins. En conclusion, le mémoire rapporte que Alloy est un bon outil pour vérifier des systèmes dynamiques mais que sa version récente, DynAlloy, peut être encore mieux adapté pour le faire puisque précisément conçu pour faire face aux spécificités de ce type de système. Le mémoire s’achève sur une présentation sommaire de ce dernier outil.
8

Dominique, Cyril. "Modélisation dynamique des modules actifs à balayage électronique par séries de Volterra et intégration de ces modèles pour une simulation de type système." Paris 6, 2002. http://www.theses.fr/2002PA066106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ros, Raymond. "Optimisation Continue Boîte Noire : Comparaison et Conception d'Algorithmes." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00595922.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En optimisation continue, un problème donné consiste à trouver l'optimum d'une fonction objectif f définie dans R^n à valeur dans R. Dans ce contexte, le scénario boîte noire fait l'hypothèse que seule l'évaluation de f nous fournit de l'information. Dans une première partie, nous étudions l'algorithme CMA-ES, stratégie d'évolution avec adaptation de la matrice de covariance ; une approche reconnue pour résoudre les problèmes d'optimisation boîte noire. Nous démontrons les limites de cet algorithme en terme de complexités spatiale et temporelle pour faire face à des problèmes à grande dimensionalité. Pour dépasser ces limites, nous proposons des variantes de CMA-ES qui ne mettent à jour que les éléments diagonaux par bloc de la matrice de covariance, qui exploitent donc la séparabilité. Nous montrons que ces variantes peuvent avoir de meilleures performances que CMA-ES sur des fonctions non-séparables à condition que le problème considéré ait une dimension assez grande. Dans une seconde partie, nous définissons et exploitons un cadre expérimental pour la comparaison systématique de résultats en optimisation boîte noire, où les pratiquants du domaine peuvent ainsi tester et comparer des algorithmes sur des fonctions artificielles. Nos résultats montrent la dépendance des performances des algorithmes en fonction du budget alloué à l'optimisation. Des méthodes classiques telles que NEWUOA ou BFGS sont ainsi appropriées à des petits budgets. L'approche CMA-ES avec redémarrage et contrôle de la taille de population obtient de bons résultats pour des budgets plus larges. Le logiciel COCO pour COmparing Continuous Optimisers, utilisé pour faire ces comparaisons systématiques est décrit techniquement dans une troisième partie. COCO sert d'implémentation de notre cadre expérimental et permet en plus de fournir des résultats tels que ceux que nous exploitons dans ce document.
10

Longuet, Delphine. "Test à partir de spécifications axiomatiques." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00258792.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le test est l'une des méthodes les plus utilisées pour la validation du logiciel. L'activité de test consiste à exécuter le logiciel sur un sous-ensemble de ses entrées possibles de manière à déceler d'éventuelles erreurs. La présence d'erreurs est établie par confrontation du comportement du logiciel avec un objet de référence. Le processus de test est généralement décomposé en trois phases : la sélection du sous-ensemble des entrées sur lequel le logiciel sera exécuté, la soumission de ces entrées au logiciel en collectant les sorties (les réponses du logiciel) et la décision de l'adéquation de ces sorties avec les sorties attendues.

La sélection des données à soumettre au logiciel peut être effectuée selon différentes approches. Lorsque la phase de sélection d'un jeu de tests est opérée à partir d'un objet de référence décrivant plus ou moins formellement le comportement du logiciel, sans connaissance de l'implantation elle-même, on parle de test « boîte noire ». Une des approches de test boîte noire pour laquelle un cadre formel a été proposé est celle qui utilise comme objet de référence une spécification logique du système sous test.

Le cadre général de test à partir de spécifications logiques (ou axiomatiques) pose les conditions et les hypothèses sous lesquelles il est possible de tester un système. La première hypothèse consiste à considérer le système sous test comme un modèle formel implantant les opérations dont le comportement est décrit par la spécification. La seconde hypothèse a trait à l'observabilité du système sous test. Il faut fixer la forme des formules qui peuvent être interprétées par le système, c'est-à-dire qui peuvent être des tests. On se restreint généralement au moins aux formules qui ne contiennent pas de variables. Une fois ces hypothèses de test posées, on dispose d'un jeu de tests initial, celui de toutes les formules observables qui sont des conséquences logiques de la spécification.

Le premier résultat à établir est l'exhaustivité de cet ensemble, c'est-à-dire sa capacité à prouver la correction du système s'il pouvait être soumis dans son intégralité. Le jeu de tests exhaustif étant le plus souvent infini, une phase de sélection intervient afin de choisir un jeu de tests de taille finie et raisonnable à soumettre au système. Plusieurs approches sont possibles. L'approche suivie dans ma thèse, dite par partition, consiste a diviser le jeu de tests exhaustif initial en sous-jeux de tests, selon un certain critère de sélection relatif à une fonctionnalité ou à une caractéristique du système que l'on veut tester. Une fois cette partition suffisamment fine, il suffit de choisir un cas de test dans chaque sous-jeu de test obtenu en appliquant l'hypothèse d'uniformité (tous les cas de test d'un jeu de test sont équivalents pour faire échouer le système). Le deuxième résultat à établir est que la division du jeu de tests initial n'ajoute pas (correction de la procédure) et ne fait pas perdre (complétude) de cas de test.

Dans le cadre des spécifications algébriques, une des méthodes de partition du jeu de tests exhaustif qui a été très étudiée, appelée dépliage des axiomes, consiste à procéder à une analyse par cas de la spécification. Jusqu'à présent, cette méthode s'appuyait sur des spécifications équationnelles dont les axiomes avaient la caractéristique d'être conditionnels positifs (une conjonction d'équations implique une équation).

Le travail de ma thèse a eu pour but d'étendre et d'adapter ce cadre de sélection de tests à des systèmes dynamiques spécifiés dans un formalisme axiomatique, la logique modale du premier ordre. La première étape a consisté à généraliser la méthode de sélection définie pour des spécifications équationnelles conditionnelles positives aux spécifications du premier ordre. Ce cadre de test a ensuite été d'adapté à des spécifications modales du premier ordre. Le premier formalisme de spécification considéré est une extension modale de la logique conditionnelle positive pour laquelle le cadre de test a été initialement défini. Une fois le cadre de test adapté aux spécifications modales conditionnelles positives, la généralisation aux spécifications modales du premier ordre a pu être effectuée.

Dans chacun de ces formalismes nous avons effectué deux tâches. Nous avons d'une part étudié les conditions nécessaires à imposer à la spécification et au système sous test pour obtenir l'exhaustivité du jeu de tests initial. Nous avons d'autre part adapté et étendu la procédure de sélection par dépliage des axiomes à ces formalismes et montré sa correction et sa complétude. Dans les deux cadres généraux des spécifications du premier ordre et des spécifications modales du premier ordre, nous avons montré que les conditions nécessaires à l'exhausitivité du jeu de test visé étaient mineures car faciles à assurer dans la pratique, ce qui assure une généralisation satisfaisante de la sélection dans ce cadre.

Books on the topic "Modèle de boîte noire":

1

Sautreau, Serge. Boîte noire. [Montréal]: nbj, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Martelly, Stéphane. La boîte noire: Suivi de Départs. Montpellier, Québec: Écrits des hautes-terres, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Lussier, Valda Charest. La boîte noire retrouvée: Biographie de Jean-Philibert Lussier. Sainte-Foy [Québec]: Éditions A. Sigier, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Chauviré, Christiane. La philosophie dans la boîte noire: Cinq pièces faciles sur Wittgenstein. Paris: Kimé, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Nguyen-Conan, Mai Lam. Le marché de l'ethnique, un modèle d'intégration: Halal, casher, beauté noire. Paris: Michalon, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

MSSYEH, Taha. Boîte Noire. Independently Published, 2019.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Robert, Denis. La Boîte noire. Les Arènes, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Ferrandez, Jacques, and Tonino Benacquista. La Boîte noire. Gallimard - Futuropolis, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Benozigl. La Boîte noire. Seuil, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Luc-Lecomte, Quentin, and Tony Wart. Quaero: La Boîte Noire. Independently Published, 2019.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Modèle de boîte noire":

1

Péquignot, Adrien. "Boîte noire (comment les ouvrir par l’enquête)." In Angles morts du numérique ubiquitaire, 40–43. Nanterre: Presses universitaires de Paris Nanterre, 2023. http://dx.doi.org/10.4000/11tu3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

"L’INVENTEUR DE LA « BOÎTE NOIRE »." In Pierre Jeanniot, 163–70. Presses de l'Université du Québec, 2011. http://dx.doi.org/10.2307/j.ctv18phfr8.21.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"1. Le modèle vectoriel." In RMN : la boîte à outils, 3–12. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2425-0-004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

"1. Le modèle vectoriel." In RMN : la boîte à outils, 3–12. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2425-0.c004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Pratt, Andy, and Gavin Parker. "Science, technologie, innovation : ouvrir la boîte noire." In Recherche et développement régional, 185–94. Éditions de la Sorbonne, 1997. http://dx.doi.org/10.4000/books.psorbonne.37131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Aïdan, Geraldine, and Primavera De Filippi. "LE IUS ARTIFICIALE ENTRE INTÉRIORITÉ ET BOÎTE NOIRE:." In Les intelligences artificielles au prisme de la justice sociale. Considering Artificial Intelligence Through the Lens of Social Justice, 229–50. Presses de l'Université Laval, 2023. http://dx.doi.org/10.2307/jj.9165171.12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Daumas, Jean-Claude. "1. Dans la « boîte noire » des districts industriels." In Les territoires de l’industrie en Europe (1750-2000), 9–34. Presses universitaires de Franche-Comté, 2007. http://dx.doi.org/10.4000/books.pufc.27344.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Chivallon, Christine. "Conclusion. À partir de la Caraïbe : pour un modèle de diaspora reformulé." In La diaspora noire des Amériques, 219–35. CNRS Éditions, 2004. http://dx.doi.org/10.4000/books.editionscnrs.5032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Favereau, Judith. "Du paternalisme libertarien au paternalisme démocratique : une boîte noire vide ?" In Le hasard de la preuve, 217–47. ENS Éditions, 2021. http://dx.doi.org/10.4000/books.enseditions.39342.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

"9: Gourous et boîte noire : 50 ans de dérive médiatique." In Un regard passionné sur les lipides et les matières grasses, 241–58. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2075-7-012.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography