To see the other types of publications on this topic, follow the link: Algorithmes – Applications industrielles.

Dissertations / Theses on the topic 'Algorithmes – Applications industrielles'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 21 dissertations / theses for your research on the topic 'Algorithmes – Applications industrielles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ivorra, Benjamin. "Optimisation globale semi-deterministe et applications industrielles." Montpellier 2, 2006. http://www.theses.fr/2006MON20061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Guibadj, Rym Nesrine. "Problèmes de tournées de véhicules et application industrielle pour la réduction de l'empreinte écologique." Phd thesis, Université de Technologie de Compiègne, 2013. http://tel.archives-ouvertes.fr/tel-00966428.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à la résolution approchée de problèmes de tournées de véhicules. Nous avons exploité des travaux menés sur les graphes d'intervalles et des propriétés de dominance relatives aux tournées saturées pour traiter les problèmes de tournées sélectives plus efficacement. Des approches basées sur un algorithme d'optimisation par essaim particulaire et un algorithme mémétique ont été proposées. Les métaheuristiques développées font appel à un ensemble de techniques particulièrement efficaces telles que le découpage optimal, les opérateurs de croisement génétiques ainsi que des méthodes de recherches locales. Nous nous sommes intéressés également aux problèmes de tournées classiques avec fenêtres de temps. Différents prétraitements ont été introduits pour obtenir des bornes inférieures sur le nombre de véhicules. Ces prétraitements s'inspirent de méthodes issues de modèles de graphes, de problème d'ordonnancement et de problèmes de bin packing avec conflits. Nous avons montré également l'utilité des méthodes développées dans un contexte industriel à travers la réalisation d'un portail de services mobilité.
APA, Harvard, Vancouver, ISO, and other styles
3

Heintzmann, Alexandre. "Modèles et algorithmes pour l'optimisation de la production hydro-électrique." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP022.

Full text
Abstract:
Le problème de gestion de production hydro-électrique (HUC) est un problème difficile, qui joue un rôle important dans la gestion de production électrique journalière à EDF. Dans cette thèse, nous étudions différents modèles et algorithmes pour résoudre un cas particulier du problème HUC à une usine (1-HUC). Etudier ce cas particulier présente plusieurs intérêts. D'une part, il existe des instances réelles à une usine mal résolues par les approches actuelles. D'autre part, cela nous permet d'étudier plus spécifiquement deux sources de difficultés séparément. L'une provient de la présence de non-linéarités, notamment la puissance qui est une fonction non-convexe et non-concave du débit d'eau et du volume des réservoirs. L'autre est due à l'ensemble des contraintes hydrauliques, notamment des volumes minimaux et maximaux ainsi que des volumes cibles des réservoirs.Dans une première partie, différentes alternatives de modélisation des non-linéarités du 1-HUC, plus particulièrement sur la puissance, sont proposées. L'objectif est d'identifier un modèle pouvant être résolu efficacement avec un bon compromis entre temps de calcul et précision. Les sept alternatives proposées couvrent un large spectre de familles de modélisation. Elles sont comparées sur un jeu d'instances présentant des variations sur cinq caractéristiques qui impactent la résolution. Cette étude comparative permet d'identifier trois types de modèles pertinents: un modèle avec des fonctions polynomiales de degré 2, un modèle avec une fonction linéaire par morceaux, et un modèle utilisant un ensemble fini de débits. Ce dernier modèle étant similaire à la modélisation actuelle à EDF, nous proposons dans la suite des algorithmes dédiés à celui-ci.Dans une deuxième partie, une étude polyédrale est proposée pour améliorer la résolution du problème 1-HUC. L'idée est de focaliser sur le coeur combinatoire, ce qui revient à considérer le lien entre les contraintes sur les volumes et l'ensemble discret des débits. Pour celà, nous définissons une variante du problème du sac-à-dos avec chaines de précédence et poids symétriques (SCPKP). Pour le SCPKP, nous définissons des conditions nécessaires de facettes, qui sont aussi prouvées suffisantes dans certains cas. Un algorithme de branch-and-cut en deux phases s'appuyant sur ces conditions et sur l'aspect symétrique du SCPKP est mis au point. L'efficacité de cet algorithme est ensuite montrée numériquement face à des algorithmes de l'état de l'art. Les résultats de cette analyse polyédrale du SCPKP, ainsi que l'algorithme de résolution proposé sont ensuite étendus au problème 1-HUC.Dans une troisième partie, une technique de résolution efficace est proposée pour prendre en compte les contraintes hydrauliques en s'appuyant sur la représentation du problème 1-HUC par un graphe. Cela permet de se ramener à un cas particulier du problème de plus court chemin avec fenêtres de ressource (RWSPP). Nous proposons deux algorithmes de graphes. Le premier algorithme est une variante exacte de l'algorithme A*, utilisant une borne duale dédiée au problème 1-HUC. En comparaison avec deux approches de l'état de l'art, nous montrons numériquement que cet algorithme est plus efficace pour traîter un cas spécifique du 1-HUC. L'objectif du second algorithme est de prendre en compte davantage de contraintes hydrauliques. Le principe s'appuie sur le concept d'optimisation bi-objectif pour lequel le second objectif correspond à une relaxation du volume d'eau. L'avantage par rapport à une optimisation bi-objectif classique est qu'il est possible d'utiliser les volumes minimaux et maximaux pour réduire l'espace de recherche et diriger l'énumération de solutions. Nous montrons numériquement, sur un grand jeu d'instances réelles, que cet algorithme est plus performant que trois approches de l'état de l'art. Même si cet algorithme a été conçu pour résoudre le 1-HUC, nous le définissons de manière générique pour tout RWSPP avec une ressource
The Hydro Unit Commitment problem (HUC) is a difficult problem playing a major role in the scheduling of daily electricity production at EDF. In this thesis, we study different models and algorithms to solve the special case of the single-unit HUC problem (1-HUC). Studying this case is relevant for the following reasons. On the one hand, there are real world instances of the 1-HUC problem which cannot be solved efficiently by current approaches. On the other hand, it makes it possible to study individually two particular sources of difficulty. One stems from the presence of non-linearities, in particular the power which is a non-convex non-concave function of the flow and the reservoirs' volume. The other is due to the set of hydraulic constraints, specifically the volume minimum and maximum bounds, as well as target volumes for the reservoirs.In a first part, modeling alternatives for the non-linear 1-HUC, focusing on the power function, are proposed. The aim is to identify a model which can be solved efficiently, with a good trade-off between computational time and precision. The seven proposed modeling alternatives cover a large panel of modeling families. These models are compared on a set of instances with variations on five features that impact the solution. This comparative study enables us to identify three efficient types of model: a model with polynomial functions of degree 2, a model with a piecewise linear function, and a model using a finite set of flows. As the latter model is similar to the current model at EDF, in the following we present algorithms dedicated to it.In the second part, a polyhedral study is proposed to improve the solving approach of the 1-HUC problem. The idea is to focus on the combinatorial aspects, which means considering the relationship between the bounds on volumes and the discrete set of flows. For this purpose, we introduce a variant of the knapsack problem, with Symmetric weight and Chain Precedences (SCPKP). For the SCPKP, we characterize necessary facet-defining conditions, which are also proven to be sufficient in some cases. A two-phase branch-and-cut algorithm based on these conditions and on the symmetric aspect of the SCPKP is devised. The efficiency of this algorithm is then shown experimentally against state-of-the-art algorithms. The results of this polyhedral study of the SCPKP, as well as the proposed algorithms, are then extended to the 1-HUC problem.In the third part, an efficient solving technique based on a graph representation of the 1-HUC problem is proposed, taking into account of the hydraulic constraints. It appears that the 1-HUC problem is a special case of the Shortest Path Problem with Resource Windows (RWSPP). We propose two graph algorithms. The first one is an exact variant of the A* algorithm, using a dual bound dedicated to the 1-HUC problem. In comparison with two state-of-the-art approaches, we show numerically that this algorithm is more efficient for handling a specific case of 1-HUC. The aim of the second algorithm is to take into account a wider set of hydraulic constraints. The idea is based on the concept of bi-objective optimization, for which the second objective corresponds to a relaxation of the volume. The advantage compared to a classical bi-objective optimization is that it is possible to use the minimum and maximum bounds on the volume to reduce the search space and to guide the enumeration of solutions. We show numerically, on a large set of real instances, that this algorithm outperforms three state-of-the-art approaches. Although this algorithm was designed to solve the 1-HUC problem, it is defined in a generic way for any RWSPP with a single resource
APA, Harvard, Vancouver, ISO, and other styles
4

Mahendra, Adhiguna. "Methodology of surface defect detection using machine vision with magnetic particle inspection on tubular material." Thesis, Dijon, 2012. http://www.theses.fr/2012DIJOS051.

Full text
Abstract:
[...]L’inspection des surfaces considérées est basée sur la technique d’Inspection par Particules Magnétiques (Magnetic Particle Inspection (MPI)) qui révèle les défauts de surfaces après les traitements suivants : la surface est enduite d’une solution contenant les particules, puis magnétisées et soumise à un éclairage Ultra-Violet. La technique de contrôle non destructif MPI est une méthode bien connue qui permet de révéler la présence de fissures en surface d’un matériau métallique. Cependant, une fois le défaut révélé par le procédé, ladétection automatique sans intervention de l’opérateur en toujours problématique et à ce jour l'inspection basée sur le procédé MPI des matériaux tubulaires sur les sites de production deVallourec est toujours effectuée sur le jugement d’un opérateur humain. Dans cette thèse, nous proposons une approche par vision artificielle pour détecter automatiquement les défauts à partir des images de la surface de tubes après traitement MPI. Nous avons développé étape par étape une méthodologie de vision artificielle de l'acquisition d'images à la classification.[...] La première étape est la mise au point d’un prototype d'acquisition d’images de la surface des tubes. Une série d’images a tout d’abord été stockée afin de produire une base de données. La version actuelle du logiciel permet soit d’enrichir la base de donnée soit d’effectuer le traitement direct d’une nouvelle image : segmentation et saisie de la géométrie (caractéristiques de courbure) des défauts. Mis à part les caractéristiques géométriques et d’intensité, une analyse multi résolution a été réalisée sur les images pour extraire des caractéristiques texturales. Enfin la classification est effectuée selon deux classes : défauts et de non-défauts. Celle ci est réalisée avec le classificateur des forêts aléatoires (Random Forest) dont les résultats sontcomparés avec les méthodes Support Vector Machine et les arbres de décision.La principale contribution de cette thèse est l'optimisation des paramètres utilisées dans les étapes de segmentations dont ceux des filtres de morphologie mathématique, du filtrage linéaire utilisé et de la classification avec la méthode robuste des plans d’expériences (Taguchi), très utilisée dans le secteur de la fabrication. Cette étape d’optimisation a été complétée par les algorithmes génétiques. Cette méthodologie d’optimisation des paramètres des algorithmes a permis un gain de temps et d’efficacité significatif. La seconde contribution concerne la méthode d’extraction et de sélection des caractéristiques des défauts. Au cours de cette thèse, nous avons travaillé sur deux bases de données d’images correspondant à deux types de tubes : « Tool Joints » et « Tubes Coupling ». Dans chaque cas un tiers des images est utilisé pour l’apprentissage. Nous concluons que le classifieur du type« Random Forest » combiné avec les caractéristiques géométriques et les caractéristiques detexture extraites à partir d’une décomposition en ondelettes donne le meilleur taux declassification pour les défauts sur des pièces de « Tool Joints »(95,5%) (Figure 1). Dans le cas des « coupling tubes », le meilleur taux de classification a été obtenu par les SVM avec l’analyse multirésolution (89.2%) (figure.2) mais l’approche Random Forest donne un bon compromis à 82.4%. En conclusion la principale contrainte industrielle d’obtenir un taux de détection de défaut de 100% est ici approchée mais avec un taux de l’ordre de 90%. Les taux de mauvaises détections (Faux positifs ou Faux Négatifs) peuvent être améliorés, leur origine étant dans l’aspect de l’usinage du tube dans certaines parties, « Hard Bending ».De plus, la méthodologie développée peut être appliquée à l’inspection, par MPI ou non, de différentes lignes de produits métalliques
Industrial surface inspection of tubular material based on Magnetic Particle Inspection (MPI) is a challenging task. Magnetic Particle Inspection is a well known method for Non Destructive Testing with the goal to detect the presence of crack in the tubular surface. Currently Magnetic Particle Inspection for tubular material in Vallourec production site is stillbased on the human inspector judgment. It is time consuming and tedious job. In addition, itis prone to error due to human eye fatigue. In this thesis we propose a machine vision approach in order to detect the defect in the tubular surface MPI images automatically without human supervision with the best detection rate. We focused on crack like defects since they represent the major ones. In order to fulfill the objective, a methodology of machine vision techniques is developed step by step from image acquisition to defect classification. The proposed framework was developed according to industrial constraint and standard hence accuracy, computational speed and simplicity were very important. Based on Magnetic Particle Inspection principles, an acquisition system is developed and optimized, in order to acquire tubular material images for storage or processing. The characteristics of the crack-like defects with respect to its geometric model and curvature characteristics are used as priory knowledge for mathematical morphology and linear filtering. After the segmentation and binarization of the image, vast amount of defect candidates exist. Aside from geometrical and intensity features, Multi resolution Analysis wasperformed on the images to extract textural features. Finally classification is performed with Random Forest classifier due to its robustness and speed and compared with other classifiers such as with Support Vector Machine Classifier. The parameters for mathematical morphology, linear filtering and classification are analyzed and optimized with Design Of Experiments based on Taguchi approach and Genetic Algorithm. The most significant parameters obtained may be analyzed and tuned further. Experiments are performed ontubular materials and evaluated by its accuracy and robustness by comparing ground truth and processed images. This methodology can be replicated for different surface inspection application especially related with surface crack detection
APA, Harvard, Vancouver, ISO, and other styles
5

Krommenacker, Nicolas. "Heuristiques de conception de topologies réseaux : application aux réseaux locaux industriels." Nancy 1, 2002. http://docnum.univ-lorraine.fr/public/SCD_T_2002_0267_KROMMENACKER.pdf.

Full text
Abstract:
L'avènement d'Ethernet dans les environnements industriels bouleverse le schéma des réseaux de terrain basés sur des méthodes déterministes d'accès au médium. De nombreux travaux portent sur l'amélioration des capacités d'Ethernet pour qu'il offre les performances déterministes requises par les applications critiques. Les solutions proposées sont généralement technologiques et nécessitent de remettre en cause soit les concepts de base d'Ethernet, soit le trafic applicatif. Dans ces travaux, nous exploitons les techniques de partitionnement afin de concevoir des architectures optimisées en terme de délais d'acheminement et de charges dans le réseau. Les architectures proposées sont tolérantes aux fautes par la mise en place de redondances pour pallier la défaillance de liens ou de nœuds du réseau. Deux heuristiques de partitionnement ont été développées et adaptées à ce problème de conception d'architectures de communication. Les résultats montrent l'intérêt de la démarche proposée
Industrial Ethernet is a controversial discussion topic mainly due to its non-determinism. Many researches focus on the improvement of Ethernet's capabilities to deliver the deterministic performance required by critical applications. Generally, that is obtained by modifying the Ethernet protocol or the traffic generated by the applications. Furthermore, the industrial context imposes a links redundancy in order to provide reliable architectures. That is why we propose to improve the switched Ethernet topology performances by optimizing the network organization at the level of the physical layer. Some graph partitioning techniques have been used in order to design optimized topologies which guarantee bounded maximum end to end delays. Two heuristics have been developed and adapted to this network design problem. The obtained results show the interest of the proposed method
APA, Harvard, Vancouver, ISO, and other styles
6

Apedome, Kouami Seli. "Proposition d’une démarche d’intégration des aspects cognitifs au retour d’expérience statistique : application à la maintenance industrielle." Paris 8, 2012. http://octaviana.fr/document/167322427#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
La performance d’une entreprise industrielle réside en partie dans la capacité de son personnel à créer de la valeur à travers son expérience. Des milliers d’heures sont perdues dans les entreprises industrielles, à répéter des tâches déjà réalisées par d’autres, à redéfinir les mêmes actions inefficaces par le passé, et des millions d’euros sont dépensés pour réparer des erreurs. Certains savoirs-faires disparaissent avec le départ des plus anciens, qui n’ont pas forcement transféré leurs connaissances. Parfois bien que, quelques entreprises disposent de base de données, celles ci sont toujours confrontées à des problèmes lors des prises de décision due à des informations incomplètes et imprécises. Le fait que les informations contenues dans les bases de données ne soient pas contextualités et ne soient pas suivi par une formulation de bonnes pratiques, joue grandement sur la qualité de leur exploitation. Ceci représente à notre sens, une partie de la procédure de traitement des expériences qui n’est pas toujours simple à formaliser et pour laquelle plusieurs plus ou moins adaptés sont envisageables. Dans notre, travail nous proposons une démarche de formalisation et d’exploitation des expériences à partir du réseau bayésien. Le réseau bayésien est un modèle graphique, mathématique et statistique qui aide à gérer l’incertitude. Il permet de représenter intuitivement un domaine de connaissance, de gérer un ensemble de données incomplètes, et peut représenter un véritable outil d’aide à la décision
Performance of an industrial enterprise resides in part in his staff's capacity to create value through his experience. Thousands of hours are lost in the industrial enterprises, to repeat tasks already achieved by others, to redefine the same inefficient actions in the past, and millions euros are spent to repair some mistakes. Some how- know disappears with the departure of the oldest, that doesn't have forcing transferred their knowledge. Sometimes, some enterprises have data base, those are confronted here always to problems at the time of the decision makings due to incomplete and imprecise information. Fact that information contained in data bases are not contextual and are not followed by a good practice formulation, cheek greatly on quality of their exploitation. It represents to our sense, a part of procedure of treatment of experiences that is not always simple to formalize and for which several more or less adapted are foreseeable. In our, work we propose a gait of formalism and exploitation of experiences from Bayesian network. Bayesian network is a graphic, mathematical and statistical model that helps to manage uncertainty. It permits to represent a domain of knowledge, to manage a set of incomplete data, intuitively and can represent a real tool of help to decision
APA, Harvard, Vancouver, ISO, and other styles
7

Hugget, Alain. "Réseaux de neurones et algorithmes génétiques : application à la modélisation et à l'optimisation de séchoirs industriels." Bordeaux 1, 1998. http://www.theses.fr/1998BOR11858.

Full text
Abstract:
L'optimisation de sechoirs necessite deux types d'outils pour, dans un premier temps, representer efficacement le comportement du systeme et, par la suite, optimiser simultanement sa structure, ses dimensions et ses parametres de fonctionnement. Dans cette these, une nouvelle approche globale d'optimisation est developpee. Les reseaux de neurones artificiels y sont utilises pour representer efficacement les phenomenes physiques apparaissant lors du sechage et les algorithmes genetiques permettent d'optimiser differents problemes. L'approche est validee sur deux exemples de sechoirs industriels convectifs. Les applications developpees dans cette these sortent du champ de competences classique des reseaux de neurones en permettant la representation des resultats fournis par un modele de sechage mathematique. Pour une meme precision, les rn offrent ainsi la possibilite de diminuer les temps de simulations dans des rapports variant de 100 a 1000 par rapport a des approches plus classiques (differences finies, methode pre-integree). Par ailleurs, il devient possible de controler le niveau de connaissances sur le processus ou sur le produit a traiter pendant la constitution de la representation neuronale. Enfin, l'application simultanee de la representation neuronale et de la recherche par algorithme genetique nous a permis de mener une approche d'optimisation globale multi-criteres sur des installations de sechage. L'application finale utilise les capacites de chacun de ces outils afin de determiner les parametres de conception et de conduite des benefice). Cette approche permet aussi d'aboutir a des solutions technologiques adaptees aux contraintes imposees par l'environement industriel. De plus, la globalite du probleme traite nous permet de nous affranchir de la demarche lineaire et reductrice generalement utilisee pendant la phase de conception d'un systeme : les solutions obtenus sont par ce fait plus riche et plu representatives. Les outils et la demarche developpes dans ce travail se tournent resolement vers une approche de c. A. O. (conception assistee par ordinateur) utilisable pour etudier de nombreux systemes industriels complexes.
APA, Harvard, Vancouver, ISO, and other styles
8

Hugget, Alain. "Réseaux de neurones et algorithmes génétiques : application à la modélisation et à l'optimisation de séchoirs industriels." Bordeaux 1, 1998. http://www.theses.fr/1998BOR10679.

Full text
Abstract:
L'optimisation de sechoirs necessite deux types d'outils pour, dans un premier temps, representer efficacement le comportement du systeme et, par la suite, optimiser simultanement sa structure, ses dimensions et ses parametres de fonctionnement. Dans cette these, une nouvelle approche globale d'optimisation est developpee. Les reseaux de neurones artificiels y sont utilises pour representer efficacement les phenomenes physiques apparaissant lors du sechage et les algorithmes genetiques permettent d'optimiser differents problemes. L'approche est validee sur deux exemples de sechoirs industriels convectifs. Les applications developpees dans cette these sortent du champ de competences classique des reseaux de neurones en permettant la representation des resultats fournis par un modele de sechage mathematique. Pour une meme precision, les rn offrent ainsi la possibilite de diminuer les temps de simulations dans des rapports variant de 100 a 1000 par rapport a des approches plus classiques (differences finies, methode pre-integree). Par ailleurs, il devient possible de controler le niveau de connaissances sur le processus ou sur le produit a traiter pendant la constitution de la representation neuronale. Enfin, l'application simultanee de la representation neuronale et de la recherche par algorithme genetique nous a permis de mener une approche d'optimisation globale multi-criteres sur des installations de sechage. L'application finale utilise les capacites de chacun de ces outils afin de determiner les parametres de conception et de conduite des benefice). Cette approche permet aussi d'aboutir a des solutions technologiques adaptees aux contraintes imposees par l'environement industriel. De plus, la globalite du probleme traite nous permet de nous affranchir de la demarche lineaire et reductrice generalement utilisee pendant la phase de conception d'un systeme : les solutions obtenus sont par ce fait plus riche et plu representatives. Les outils et la demarche developpes dans ce travail se tournent resolement vers une approche de c. A. O. (conception assistee par ordinateur) utilisable pour etudier de nombreux systemes industriels complexes.
APA, Harvard, Vancouver, ISO, and other styles
9

Bronner, Cyrille. "Utilisation des données opérationnelles pour l'aide à la décision en situation accidentelle impliquant une substance dangereuse : application à l'identification du terme source." Saint-Etienne, EMSE, 2008. http://www.theses.fr/2008EMSE0021.

Full text
Abstract:
Lors d’un accident majeur d’origine chimique, les sapeurs-pompiers et les experts des cellules d’appui doivent faire face à des phénomènes complexes (explosions, dispersions de produits toxiques) et ne disposent souvent que d’éléments incertains et imprécis, rendant difficile le diagnostic de la situation. Dans les premiers instants qui constituent la phase d’urgence, la « source » d’émission du flux dangereux est souvent mal connue mais elle est pourtant indispensable pour avoir une vision globale de l’événement, prévoir son évolution et prendre les décisions visant à limiter les conséquences. Ces travaux de recherche ont pour objectif de développer des méthodologies et des outils d’aide à la décision destinés aux primo intervenants des situations d’urgence d’origine chimique. Ces outils doivent permettre, à partir de l’exploitation des données opérationnelles, d’accéder d’une part à la nature d’une substance a priori inconnue, d’autre part « au terme source » impliqué (débit, quantité). Pour identifier une substance inconnue ou tout au moins les dangers qu’elle présente, l’approche consiste à utiliser les données descriptives et les symptômes recueillis in situ. Une base de données a été conçue et un logiciel a été développé pour faciliter l’exploitation de ces données opérationnelles. L’incertitude et l’imprécision inhérentes à ces données ont été prises en compte, notamment à l’aide de la théorie des probabilités. L’évaluation des conséquences requiert, en plus de la nature de la substance impliquée, la connaissance précise du « terme source ». Aussi, une méthode inverse a été proposée afin d’évaluer le terme source à partir des conséquences observées et/ou mesurées (surpressions, concentrations). Elle consiste en l’utilisation d’un algorithme génétique couplé à un modèle de calcul de flux. La méthode développée a été appliquée et validée sur les explosions de solides pour lesquelles il s’agit de calculer avec précision la masse d’explosif ayant détonée. L’algorithme a ensuite été validé sur des accidents survenus sur les sites d’AZF et de Nitrochimie
In the event of a major chemical accident, often only uncertain and inaccurate facts are available to the fire-fighters and crisis management units, which makes a diagnosis of the situation difficult. Further, the emission source (initial conditions) is often badly known in the first instant but is however absolutely necessary to have a global view of the event and predict its development to take good decisions and to limit consequences. This research work aims at developing, for the emergency first responders, methodologies and decision-making support tools, specific to chemical accidents. This thesis addresses two problems, in one hand to identify the a priori unknown chemical substance, in the other hand to assess the source term (rate, quantity …). To identify an unknown chemical substance or, at least, the associated hazards, the developed method consists in using data collected in situ which can be descriptive data (as colour, odour) or symptoms observed on victims. On these bases, a methodology and a software have been developed to make easier the exploitation of operational data, taking into account inherent uncertainty and inaccuracy, in particular by using the probability theory. In addition to the identification of the chemical substance, consequences assessment requires to know precisely the source term. So, an inverse method has been proposed to evaluate the source term by using the observed or/and measured consequences (overpressures, concentrations …). This method is based on a genetic algorithm coupled with an analytic explosion model. The algorithm was then validated on two accidents (AZF and Nitrochimie sites) and provides good estimations of the mass of the explosive having detonated. The benefit of our method is its ability to solve problem with more than one unknown parameter, e. G. The explosive mass together with the location of the epicentre of the explosion which could not be possible with methods usually used
APA, Harvard, Vancouver, ISO, and other styles
10

Sow, Souleymane. "Simulateur vibratoire de machines tournantes à base de machine-learning." Electronic Thesis or Diss., Reims, 2024. http://www.theses.fr/2024REIMS038.

Full text
Abstract:
Placée dans le cadre de la maintenance 4.0, cette thèse vise à développer un simulateur vibratoire pour un banc d’essais de roulements à gorges profondes, afin d’améliorer la précision des diagnostics basés sur des algorithmes de machine learning. Le travail se concentre d’abord sur l’intégration de la flexibilité des paliers dans un modèle numérique existant, créant ainsi un jumeau numérique plus représentatif des conditions réelles d’exploitation. La méthodologie s’articule autour de la conception d’un modèle numérique hybride, combinant un modèle méso (éléments discrets) et un modèle macro (éléments finis). Ces deux sous-modèles communiquent pour décrire la dynamique du système et simuler différents modes de fonctionnement. Les données générées par le simulateur sont ensuite exploitées pour mettre à jour le modèle et entraîner des algorithmes de classification (MSVM, KNN, arbres de décision), obtenant un taux de classification de 94 %. Ce résultat montre une amélioration de 10 % par rapport aux méthodes précédentes, confirmant l’efficacité de l’approche. Dans le but de mesurer l’apport qualitatif et quantitatif des données dans un diagnostic par classification, les données issues de ce modèle numérique mis à jour sont utilisées dans différentes stratégies d’hybridation de données avec les celles mesurées sur le système
Framed within maintenance 4.0, this thesis aims to develop a vibratory simulator for a deep-groove ball bearing test bench to improve the accuracy of diagnostics based on machine learning algorithms. The work initially focuses on integrating the flexibility of the bearing supports into an existing numerical model, thereby creating a digital twin that more accurately reflects real operating conditions. The methodology is centred around the design of a hybrid numerical model, combining a meso-model (discrete elements) and a macro-model (finite elements). These two sub-models interact to describe the system's dynamics and simulate different operating modes. The data generated by the simulator is then used to update the model and train classification algorithms (MSVM, KNN, decision trees), achieving a classification accuracy of 94%. This result demonstrates a 10% improvement compared to previous methods, confirming the approach’s effectiveness. To assess the qualitative and quantitative contributions of the data in a classification-based diagnostic, the data from the updated numerical model is used in various data hybridization strategies with those measured from the physical system
APA, Harvard, Vancouver, ISO, and other styles
11

Safeea, Mohammad. "Des robots manipulateurs collaboratifs sûrs." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE036.

Full text
Abstract:
Les manipulateurs industriels collaboratifs ouvrent une nouvelle ère dans la fabrication flexible, où les robots et les humains sont capables de coexister et de travailler ensemble. Cependant, divers défis persistent pour parvenir à une collaboration complète entre les robots et les humains en milieu industriel. Dans cette thèse, deux défis principaux - la sécurité et la collaboration - sont abordés pour atteindre cet objectif. Concernant la sécurité, la thèse présente une méthode d'évitement des collisions en temps réel qui permet au robot d'ajuster les chemins générés hors ligne pour une tâche industrielle, tout en évitant les collisions avec les humains à proximité. En outre, la thèse a présenté une nouvelle méthode pour effectuer un mouvement d'évitement de collision réactif, en utilisant la méthode de Newton du second ordre qui offre divers avantages par rapport aux méthodes traditionnelles utilisées dans la littérature. Sur la collaboration, la thèse présente un mode de guidage manuel précis comme alternative au mode de guidage actuel pour effectuer des opérations de positionnement précis de l'effecteur terminal du robot d’une manière simple et intuitive. La thèse présente également de nouvelles contributions à la formulation mathématique de la dynamique des robots, y compris un algorithme récursif pour calculer la matrice de masse des robots sériels avec un coût minimal du second ordre et un algorithme récursif pour calculer efficacement les symboles de Christoffel. Tous les algorithmes présentés sont validés soit en simulation, soit dans un scénario réel
Collaborative industrial manipulators are ushering a new era in flexible manufacturing, where robots and humans are allowed to coexist and work side by side. However, various challenges still persist in achieving full human robot collaboration on the factory floor. In this thesis two main challenges - safety and collaboration - for achieving that goal are addressed. On safety, the thesis presents a real-time collision avoidance method which allows the robot to adjust the offline generated paths of the industrial task in real-time for avoiding collisions with humans nearby. In addition, the thesis presented a new method for performing the reactive collision avoidance motion using second order Newton method which offers various advantages over the traditional methods in the literature. On collaboration, the thesis presents the precision hand-guiding as an alternative to the teach-pendant for performing precise positioning operations of the robot’s end-effector in a simple and intuitive manner. The thesis also presents new contributions into the mathematical formulation of robot dynamics, including a recursive algorithm for calculating the mass matrix of serially linked robots with a minimal second order cost, and a recursive algorithm for calculating Christoffel symbols efficiently. All the presented algorithms are validated either in simulation or in a real-world scenario
APA, Harvard, Vancouver, ISO, and other styles
12

Langouët, Hoël. "Optimisation sans dérivées sous contraintes : deux applications industrielles en ingénierie de réservoir et en calibration des moteurs." Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00671987.

Full text
Abstract:
L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
APA, Harvard, Vancouver, ISO, and other styles
13

Dejnozkova, Eva. "Architecture dédiée au traitement d'image base sur les équations aux dérivées partielles." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001180.

Full text
Abstract:
Les méthodes de traitement d'images fondées sur les équations aux dérivées partielles (EDP) bénéficient d'une attention particulière de la part de la communauté scientifique. Le nombre d'applications a considérablement augmenté après la formulation du problème sous forme d'ensembles de niveaux. Les EDPs s'appliquent dans de nombreux domaines tels le filtrage des images (diffusion non-linéaire), les contours actifs utilisés pour la segmentation des images statiques (graphe de Voronoï, Ligne de Partage des Eaux, plus court chemin, détection d'objets), aussi bien que des séquences d'images (suivi d'objets) ou encore des méthodes plus récentes tel le shape-from-shading. Les applications industrielles de ces méthodes sont néanmoins très limitées, d'une part par une complexité considérable de calculs (nombre d'itérations très élevé, par ex.), d'autre part par des difficultés rencontrées lors d'implantation embarquées (consommation d'énergie, exigences mémoire). Quelques expériences temps-réel ont été publiées avec des super-calculateurs ou des accélérateurs graphiques. Quant aux applications embarquées, elles sont à notre connaissance quasi-inexistantes. Notre but est de proposer une architecture dédiée, facilitant tant l'implantation temps-réel qu'embarquée. En vue de cet objectif nous proposons un nouvel algorithme de solution de l'équation Eikonale/calcul de fonction distance qui procède en parallèle, élimine l'usage des files d'attente hiérarchiques et permet d'obtenir la solution sur la totalité ou seulement sur une partie de l'image (le narrow band). La complexité de cet algorithme, nommé Massive Marching, est linéaire. Nous estimons que l'impact de Massive Marching est d'autant plus important pour la communauté de Morphologie Mathématique, qu'il s'agit du premier algorithme permettant d'obtenir en parallèle la ligne de partage des eaux non-biaisée. Ensuite, nous proposons deux types d'architecture (i) SIMD et (ii) plusieurs coeurs de processeurs embarqués implantant Massive Marching en parallèle ou semi-parallèle. Ces mêmes types d'architecture peuvent être utilisés pour implanter un filtrage aussi bien que des méthodes à évolution d'interface. La même architecture peut donc être utilisée pour implanter une application complète, composée de différents types d'algorithmes comme par exemple filtrage suivi par segmentation.
APA, Harvard, Vancouver, ISO, and other styles
14

Bauer, Christophe. "Conception optimale de l'architecture de roulis avec application aux avions Airbus." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/915/.

Full text
Abstract:
La conception d'une architecture de roulis viable de masse minimale est complexe. Elle nécessite un long processus itératif multi-disciplinaire sans garantir l'optimalité de la solution. Cette thèse définit une méthodologie de recherche automatisée permettant de déterminer la solution optimale, afin de réduire les délais et donc les coûts de conception. Pour cela nous formulons et modélisons ce problème contraint sous les formes mono et bi-objectif. Pour chacune nous adaptons une méthode de résolution, un processus branch-and-bound et un algorithme génétique multi-objectif: SPEA. Ces outils sont intégrés dans un processus boucle ouverte qui traite le dimensionnement des gouvernes de roulis. Des applications à un A340-300 mettent en évidence les particularités de ces méthodes et processus, ainsi que les gains réalisables
Roll architecture is composed of ailerons, spoilers and of all the elements that can control them. The design of a viable and certifiable roll architecture with a minimum mass is complex because it must take into account the objectives of performance, especially industrial and safety criteria. This design requires a long iterative process without guaranteeing optimality of the solution. This thesis defines a methodology of automated research to determine the optimal solution, to reduce the design's delays and costs. For that we formulate and model this problem in mono and bi-objective forms, where the industrial constraints are used to reduce the research's domain. For each formulation, we adapt a method of resolution, a branch-and-bound algorithm and a genetic multi-objective: SPEA. These tools are integrated into an open-loop process that addresses the design of roll control. The details of these methods and processes, as well as gains, are highlighted through applications to A340-300 aircraft
APA, Harvard, Vancouver, ISO, and other styles
15

Benhaddou, Mohamed. "Définition d'une méthodologie de conception de circuits intégrés numériques indépendante de la technologie : application à la conception d'un processeur flou." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL067N.

Full text
Abstract:
Les technologies de fabrication de circuits intégrés numériques et les outils de CAO pour la conception de ceux-ci ont régulièrement évolué. La tendance actuelle est de décrire le comportement du concept à un niveau d'abstraction élevé à l'aide d'un langage de description du matériel standard comme Verilog ou VHDL, et laisser le soin aux outils de synthèse de générer les masques du circuit ou sa liste d'équipotentielles dans la bibliothèque d'un fondeur. Le problème est le prix élevé de ces outils de synthèse de haut niveau qui est dissuasif pour les PME/PMI. L’objectif de ce travail est de montrer que l'on peut démarrer le flot de conception d'un circuit par sa description comportementale de haut niveau et d'obtenir des circuits répondant au cahier des charges en utilisant deux outils de CAO abordables financièrement et répandus dans le commerce: Max+plus II pour le développement des circuits configurables et Solo 1400 pour le développement des circuits précaractérisés. Les outils de synthèse de haut niveau sont ainsi évités à l'aide d'un environnement de conception bâti autour de logiciels de portabilité entre les deux technologies et d'interfaçage entre les HDL de Max+plus II (AHDL) et Solo 1400 (model) et Verilog qui permet la modélisation des circuits intégrés numériques à différents niveaux d'abstraction. Cet environnement de conception est géré par une méthodologie simple, stricte et efficace. Un processeur flou a été conçu afin de valider la méthodologie de conception indépendante de la technologie proposée
APA, Harvard, Vancouver, ISO, and other styles
16

Doulcier, Joseph. "Implantation optimale d'un robot en fonction d'une tâche à réaliser en environnement contraint. Analyse, synthèse et développement d'un module d'aide à l'implantation des robots." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1993. http://tel.archives-ouvertes.fr/tel-00523120.

Full text
Abstract:
Ce mémoire présente une étude de l'implantation optimale d'un robot en fonction de la tâche à réaliser, en prenant en compte les contraintes de non collisions. La démarche proposée s'est appuyée sur un système de C.A.O. classique. Elle se fonde sur une définition des tâches en termes de trajectoire de référence, définie par des points d'arrêt induits par le processus de fabrication et des points de passages disposés pour assurer la non collision avec les obstacles. Elle aboutit à une méthode permettant d'optimiser la trajectoire du robot de manière conjointe avec son implantation, en étendant le concept de variables articulaires à l'ensemble des variables décrivant les possibilités d'implantation du robot. Ces points de passage sont mis en place au cours du processus d'optimisation générale en fonction de l'implantation du robot et de la disposition des obstacles. Cette approche est introduite par une étude de la planification de trajectoires, à travers une méthode locale dissociant les objectifs de réalisation du process des objectifs d'anti-collision, suivie d'une étude du domaine d'implantation du robot. Ces travaux ont été appliqués aux problèmes de l'industrie automobile à travers l'exemple des postes de soudure par points et des postes de montage.
APA, Harvard, Vancouver, ISO, and other styles
17

Hullo, Jean-Francois. "Consolidation de relevés laser d'intérieurs construits : pour une approche probabiliste initialisée par géolocalisation." Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00801974.

Full text
Abstract:
La préparation d'interventions de maintenance dans les installations industrielles a dorénavant recours à des outils d'étude, de modélisation et de simulation basés sur l'exploitation de modèles virtuels 3D des installations. L'acquisition de ces modèles tridimensionnels s'effectue à partir de nuages de points mesurés, depuis plusieurs points de vue, par balayage angulaire horizontal et vertical d'un faisceau laser par scanner laser terrestre. L'expression dans un repère commun de l'ensemble des données acquises est appelée consolidation, au cours de laquelle les paramètres de changement de repères entre les stations sont calculés. L'objectif de cette thèse est d'améliorer la méthode d'acquisition de données laser en environnements industriels. Celle-ci doit, au final, garantir la précision et l'exactitude nécessaires des données tout en optimisant le temps et les protocoles d'acquisition sur site, en libérant l'opérateur d'un certain nombre de contraintes inhérentes au relevé topographique classique. Nous examinons, dans un premier temps, l'état de l'art des moyens et méthodes mis en œuvre lors de l'acquisition de nuages de points denses de scènes d'intérieurs complexes (Partie I). Dans un deuxième temps, nous étudions et évaluons les données utilisables pour la consolidation: données laser terrestres, algorithmes de reconstruction de primitives et systèmes de géolocalisation d'intérieur (Partie II). Dans une troisième partie, nous formalisons et expérimentons ensuite un algorithme de recalage basé sur l'utilisation de primitives appariées, reconstruites dans les nuages de points (Partie~III). Nous proposons finalement une approche probabiliste de l'appariement de primitives permettant l'intégration des informations et incertitudes a priori dans le système de contraintes utilisé pour le calcul des poses (Partie IV).
APA, Harvard, Vancouver, ISO, and other styles
18

Bert, Juliette. "Contribution à l'étude de la valorisation des rejets thermiques : étude et optimisation de moteurs Stirling." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00862454.

Full text
Abstract:
Plusieurs machines actuellement utilisées, moteurs à combustion interne en automobile ou centrales thermiques dans l'énergie, rejettent de grandes quantités de chaleur. Généralement cette chaleur est dissipée dans l'atmosphère et son énergie perdue. Nous nous sommes donc intéressés aux moteurs à apport de chaleur externe dont l'énergie primaire est de l'énergie thermique, et plus particulièrement aux moteurs Stirling. L'une de ses principales caractéristiques est d'utiliser de la chaleur produite extérieurement comme source d'énergie. Ceci lui permet d'être multi-carburant et même d'utiliser de l'énergie thermique naturelle.L'étude menée comporte deux parties. Tout d'abord un modèle numérique zéro dimension, trois zones en temps fini a été développé. Il prend en compte les échanges thermiques aux parois et les pertes de charge, mais ne préjuge ni des dimensions moteur, ni des conditions de fonctionnement. Ceci lui permet de rester flexible pour s'adapter à l'architecture spécifique du moteur à simuler. Ensuite nous avons réalisé des mesures expérimentales sur deux moteurs de taille et puissance différentes (quelques watts et 1 kW). Ces résultats ont permis de valider le modèle. Au final nous avons obtenu un modèle numérique traduisant l'influence de paramètres dimensionnels et fonctionnels sur la puissance du moteur Stirling.Un outil d'aide à la conception de moteur Stirling a été développé en ajoutant au modèle un algorithme d'optimisation. Il permet une ébauche des caractéristiques d'un moteur Stirling. En fonction de l'application souhaitée et des contraintes s'y appliquant, il agit sur les caractéristiques choisies par l'utilisateur pour maximiser les performances.
APA, Harvard, Vancouver, ISO, and other styles
19

Roche, Jean-Christophe. "Localisation spatiale par subdivision pour l'accélération des calculs en radiométrie :." Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00006752.

Full text
Abstract:
La physique de la lumière ainsi que les outils géométriques pour la Conception Assistée par Ordinateur sont à la base des logiciels de simulation des phénomènes lumineux pour la fabrication des systèmes optiques. Ce n'est pas sans difficulté que les industriels conçoivent ces logiciels dont un des principaux handicaps est que les simulations sont très coûteuses en temps. L'objectif principal de ce travail est de rechercher et développer des algorithmes de calcul plus performants. Dans un premier temps, on décrit précisément le modèle du transport des photons dans ce contexte, composé de l'équation de Boltzmann accompagné de conditions de bord, et qui, dans le cas de milieux homogènes par morceaux, se ramène à l'équation de radiosité. Ensuite, on présente les outils géométriques utilisés dans le modeleur hybride CSG (Constructive Solid Geometry) et BRep (Boundary Representation) ainsi que les algorithmes de base nécessaires à la recherche d'intersections entre des demi-droites et des objets géométriques. Puis, un tour d'horizon des méthodes d'accélération des calculs en radiométrie par localisation spatiale est présenté. En tenant compte des contraintes industrielles, une telle méthode d'accélération est alors adaptée au contexte puis développée dans un environnement logiciel existant. Des expérimentations numériques montrent l'efficacité des nouvelles bibliothèques. Enfin, une étude théorique des complexités en temps et en mémoire liées aux méthodes de localisation spatiale, faisant intervenir les sommes de Minkowski d'ensembles géométriques, débouche sur une stratégie consistant à minimiser la complexité en temps pour choisir les paramètres de localisation.
APA, Harvard, Vancouver, ISO, and other styles
20

Bringer, Yves. "Performances de nouvelles architectures machines pour la mise en oeuvre d'algorithmes de traitement et d'analyse d'image." Saint-Etienne, 1993. http://www.theses.fr/1993STET4024.

Full text
Abstract:
Une carte électronique a été réalisée à l'Institut de chimie et physique industrielles de Lyon utilisant quatre processeurs à architecture à flot de données et programmable liant ainsi puissance et souplesse d'utilisation. Pour valider cette architecture pour le traitement et l'analyse d'image, l'approche a été double : - mise en oeuvre d'algorithme à la fois coûteux et originaux scientifiquement : algorithme de Danielson, suppression de flou, reconstruction 3D. - implantation sur site industriel avec prise en compte des contraintes de temps et intégration dans une chaine complète de contrôle
APA, Harvard, Vancouver, ISO, and other styles
21

Yesudasu, Santheep. "Cοntributiοn à la manipulatiοn de cοlis sοus cοntraintes par un tοrse humanοïde : applicatiοn à la dépaléttisatiοn autοnοme dans les entrepôts lοgistiques." Electronic Thesis or Diss., Normandie, 2024. https://theses.hal.science/tel-04874770.

Full text
Abstract:
Cette thèse de doctorat explore le développement et l'implémentation d'URNik-AI, un système de dépalettisation automatisé basé sur l'intelligence artificielle (IA), conçu pour manipuler des boîtes en carton de tailles et de poids variés à l'aide d'un torse humanoïde à double bras. L'objectif principal est d'améliorer l'efficacité, la précision et la fiabilité des tâches de dépalettisation industrielle grâce à l'intégration de la robotique avancée, de la vision par ordinateur et des techniques d'apprentissage profond.Le système URNik-AI est composé de deux bras robotiques UR10 équipés de capteurs de force/torque à six axes et d'outils de préhension. Une caméra RGB-D ASUS Xtion est montée sur des servomoteurs pan-tilt Dynamixel Pro H42 pour obtenir des images haute résolution et des données de profondeur. Le cadre logiciel comprend ROS Noetic, ROS 2 et le framework MoveIt, permettant une communication fluide et une coordination des mouvements complexes. Ce système assure une haute précision dans la détection, la saisie et la manipulation d'objets dans divers environnements industriels.Une contribution importante de cette recherche est l'implémentation de modèles d'apprentissage profond, tels que YOLOv3 et YOLOv8, pour améliorer les capacités de détection et d'estimation de pose des objets. YOLOv3, entraîné sur un ensemble de données de 807 images, a atteint des scores F1 de 0,81 et 0,90 pour les boîtes à une et plusieurs faces, respectivement. Le modèle YOLOv8 a encore amélioré les performances du système en fournissant des capacités de détection de points clés et de squelettes, essentielles pour la manipulation précise des objets. L'intégration des données de nuage de points pour l'estimation de la pose a assuré une localisation et une orientation précises des boîtes.Les résultats des tests ont démontré la robustesse du système, avec des métriques élevées de précision, rappel et précision moyenne (mAP), confirmant son efficacité. Cette thèse apporte plusieurs contributions significatives au domaine de la robotique et de l'automatisation, notamment l'intégration réussie des technologies robotiques avancées et de l'IA, le développement de techniques innovantes de détection et d'estimation de pose, ainsi que la conception d'une architecture de système polyvalente et adaptable
This PhD thesis explores the development and implementation of URNik-AI, an AI-powered automated depalletizing system designed to handle cardboard boxes of varying sizes and weights using a dual-arm humanoid torso. The primary objective is to enhance the efficiency, accuracy, and reliability of industrial depalletizing tasks through the integration of advanced robotics, computer vision, and deep learning techniques.The URNik-AI system consists of two UR10 robotic arms equipped with six-axis force/torque sensors and gripper tool sets. An ASUS Xtion RGB-D camera is mounted on Dynamixel Pro H42 pan-tilt servos to capture high-resolution images and depth data. The software framework includes ROS Noetic, ROS 2, and the MoveIt framework, enabling seamless communication and coordination of complex movements. This system ensures high precision in detecting, grasping, and handling objects in diverse industrial environments.A significant contribution of this research is the implementation of deep learning models, such as YOLOv3 and YOLOv8, to enhance object detection and pose estimation capabilities. YOLOv3, trained on a dataset of 807 images, achieved F1-scores of 0.81 and 0.90 for single and multi-face boxes, respectively. The YOLOv8 model further advanced the system's performance by providing keypoint and skeleton detection capabilities, which are essential for accurate grasping and manipulation. The integration of point cloud data for pose estimation ensured precise localization and orientation of boxes.Comprehensive testing demonstrated the system's robustness, with high precision, recall, and mean average precision (mAP) metrics confirming its effectiveness. This thesis makes several significant contributions to the field of robotics and automation, including the successful integration of advanced robotics and AI technologies, the development of innovative object detection and pose estimation techniques, and the design of a versatile and adaptable system architecture
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography