AAU Student Projects - visit Aalborg University's student projects portal
A master's thesis from Aalborg University
Book cover


Musca: Deep Learning-Based Web Application for Counting Laboratory Populations of Drosophila melanogaster

Authors

;

Term

4. term

Publication year

2022

Submitted on

Pages

31

Abstract

Frugtfluen Drosophila melanogaster er et udbredt modeldyr i forskningen, men store forsøg kan kræve manuel optælling af æg og larver i tusindvis af petriskåle, hvilket er tidskrævende. Dyb læring til objekt-detektion kan automatisere dette arbejde. Vi gennemgår den nyeste praksis og sammenligner modeller for at vælge den mest egnede til opgaven. Med YOLOv5m, en moderne model til objekt-detektion, bygger vi en webapplikation, der automatisk finder og klassificerer objekter i Drosophila-billeddata. På et testdatasæt med 93 billeder opnår vi mAP@0.50 = 0.724 og mAP@[0.50:0.95] = 0.543 ved en konfidens-tærskel på 0.25 og en NMS IoU-tærskel på 0.45, med en inferenstid på 0.3 sekunder pr. billede. Når detektoren bruges klasse-agnostisk, og vi ignorerer afgrænsningsbokse og kun tæller detektioner, opnår vi en MAE på 5.305. Her er mAP et samlet mål for, hvor præcist systemet finder og afgrænser objekter; IoU måler overlap mellem forudsagte og sande bokse; NMS (Non-Maximum Suppression) fjerner overlappende dubletter; og MAE (Mean Absolute Error) er den gennemsnitlige absolutte forskel mellem forudsagte og faktiske optællinger. Softwaren gør det muligt for forskere at udnytte avanceret dyb læring uden forkundskaber eller besværlig opsætning, opfylder basale behov i Drosophila-forskning, tilbyder ekstra funktioner for brugervenlighed, håndterer domænespecifikke udfordringer som forskellige datasæt og klumpning af objekter, og giver finmasket styring af brugere og ressourcer til driftsscenarier.

The fruit fly Drosophila melanogaster is a widely used model organism, but large experiments can require manually counting eggs and larvae in thousands of Petri dishes, which is time-consuming. Deep learning for object detection can automate this work. We survey state-of-the-art methods and compare models to select the best fit for this task. Using YOLOv5m, a modern object detection model, we build a web application that automatically detects and classifies objects in Drosophila image data. On a 93-image test set, we obtain mAP@0.50 = 0.724 and mAP@[0.50:0.95] = 0.543 at a confidence threshold of 0.25 and an NMS IoU threshold of 0.45, with an inference time of 0.3 seconds per image. When used as a class-agnostic counter that ignores bounding boxes and only counts detections, the system achieves an MAE of 5.305. Here, mAP summarizes detection accuracy; IoU measures overlap between predicted and true boxes; NMS (Non-Maximum Suppression) removes duplicate overlapping detections; and MAE (Mean Absolute Error) is the average absolute difference between predicted and true counts. The software enables researchers to use cutting-edge deep learning without prior expertise or heavy setup, meets core Drosophila research needs, adds usability features, explicitly handles domain issues like diverse data setups and clumped objects, and provides fine-grained user and resource controls for production use.

[This summary has been rewritten with the help of AI based on the project's original abstract]