AAU Student Projects - visit Aalborg University's student projects portal
A master's thesis from Aalborg University
Book cover


WELD CLASSIFICATION BASED ON GREY LEVEL CO-OCCURRENCE AND LOCAL BINARY PATTERNS

Author

Term

4. term

Publication year

2017

Submitted on

Pages

63

Abstract

Visuel kontrol er ofte den primære metode til at vurdere svejsesømme, især hvor konstruktionen ikke er kritisk, og ekstra testomkostninger er den største bekymring. Samtidig er manuel vurdering tidskrævende og afhænger af den enkelte inspektør, hvilket gør automatisering interessant. Dette projekt undersøger, om billedbaseret analyse af overfladetekstur kombineret med maskinlæring kan opdage fejl ved kun at se på svejsens overflade. Projektet bygger på tidligere forskning og fokuserer på at finde én fejltype, som er synlig for det blotte øje. Til formålet fremstilles svejseprøver, og der oprettes et datasæt med billeder af både acceptable og defekte svejsninger, som forbehandles med forskellige værktøjer for at fremhæve relevante strukturer. To metoder til feature-ekstraktion (automatisk udtræk af teksturegenskaber) afprøves, og deres beskrivelser bruges i to forskellige klassifikationsmodeller, der skal afgøre, om en svejsning er “OK” eller “defekt”. Modellerne trænes på mærkede data og testes på nye, ukendte billeder for at sammenligne ydeevne og generalisering. Parametre i både feature-ekstraktion og klassifikation varieres, og resultaterne analyseres og diskuteres med henblik på at vurdere, om en praktisk, automatiseret visuel kontrol kan supplere manuel inspektion.

Visual inspection is often the primary way to assess weld seams, especially where the construction is not critical and the main concern is the added cost of testing. Manual assessments are time-consuming and vary between inspectors, which makes automation appealing. This project examines whether image-based analysis of surface texture, combined with machine learning, can detect weld defects using only images of the surface. Building on prior research, the study focuses on identifying a single defect type that is visible to the human eye. Weld samples are produced for the study, and a dataset of images of both acceptable and defective welds is created and preprocessed to highlight relevant structures. Two feature extraction methods (automatic measurements that describe image texture) are tested, and their outputs are fed into two different classification models that label welds as “OK” or “defective.” The models are trained on labeled data and tested on new, unseen images to compare performance and generalization. Settings in both feature extraction and classification are varied, and the results are analyzed and discussed to assess whether an automated visual inspection pipeline can complement manual checks.

[This abstract was generated with the help of AI]