Please use this identifier to cite or link to this item: http://202.28.20.112/dspace/handle/123456789/697
Full metadata record
DC FieldValueLanguage
dc.contributorPonnipa Jantawongen
dc.contributorพรนิภา จันทวงค์th
dc.contributor.advisorSakorn Mekruksavanichen
dc.contributor.advisorสาคร เมฆรักษาวนิชth
dc.contributor.otherUniversity of Phayaoen
dc.date.accessioned2024-02-13T14:37:59Z-
dc.date.available2024-02-13T14:37:59Z-
dc.date.created2023
dc.date.issued16/10/2023
dc.identifier.urihttp://202.28.20.112/dspace/handle/123456789/697-
dc.description.abstractThe objective of this research was two-fold: 1) to develop lightweight deep learning algorithms that facilitate efficient learning of human daily activities, and 2) to utilize the resulting algorithm model to contribute to the development of innovative solutions that support human care in various fields. The research focused on three main areas: data pre-processing methods, data generation methods, and model training methods for classifying human daily activities. To conduct the experiments, a publicly available dataset called SPARS9x was utilized. The research employed Colab Pro as the tool and utilized the Python language for development purposes. The dataset included six different models, namely VGG16, ResNet18, PyramidNet18, Inception-V3, Xception, and EfficientNet-B0. The experimental findings revealed that PyramidNet18 achieved the highest accuracy of 99.15% and an F1-score of 99.15% when tested on the SPARS9x dataset. Additionally, it was discovered that hybrid models deployed with convolutional neural networks not only provided outstanding results but also demonstrated computational efficiency.en
dc.description.abstractการศึกษาวิจัยครั้งนี้มีวัตถุประสงค์ 1) เพื่อพัฒนาอัลกอริทึมการเรียนรู้เชิงลึกน้ำหนักเบาในการเรียนรู้เชิงลึกสำหรับการเรียนรู้จำกิจกรรมในชีวิตประจำวันของมนุษย์ที่มีประสิทธิภาพ 2) เพื่อนำผลลัพธ์ที่ได้ไปพัฒนานวัตกรรมในการดูแลมนุษย์ในด้านต่าง ๆ โดยได้กำหนดขอบเขตของการวิจัย 3 ขั้นตอนดังนี้ การประมวลผลเบื้องต้น ขั้นตอนการเตรียมข้อมูล และขั้นตอนการเรียนรู้จำกิจกรรมในชีวิตประจำวันของมนุษย์ ในการทดลองวิจัยครั้งนี้ได้ใช้ชุดข้อมูล SPARS9x ซึ่งเป็นชุดข้อมูลสาธารณะ เครื่องมือที่ใช้ในการวิจัยได้แก่ โคแลปโปร และใช้ภาษาไพธอนในการพัฒนา การทดลองกับแบบจำลอง 6 แบบจำลอง ได้แก่ VGG16, ResNet18, PyramidNet18, Inception-V3, Xception และ EffcientNet-B0 ผลการทดลองพบว่า PyramidNet18 มีความแม่นยำสูงสุดที่ 99.15% และ F1-score 99.15% และพบว่าแบบจำลองแบบไฮบริดที่พัฒนาร่วมกับโครงข่ายประสาทเทียมสามารถจําแนกและดึงคุณสมบัติพื้นฐานออกมาได้เป็นอย่างดี และยังแสดงให้เห็นถึงความสามารถในการคํานวณอีกด้วยth
dc.language.isoth
dc.publisherUniversity of Phayao
dc.rightsUniversity of Phayao
dc.subjectการรู้จำกิจกรรมของมนุษย์th
dc.subjectการเรียนรู้เชิงลึกth
dc.subjectสัญญาณเซ็นเซอร์ที่สวมใส่ได้th
dc.subjectโครงข่ายประสาทเทียมth
dc.subjectเซ็นเซอร์สมาร์ตโฟนth
dc.subjecthuman activity recognitionen
dc.subjectdeep learningen
dc.subjectwearable sensor signalen
dc.subjectconvolutional neural networken
dc.subjectsmartphone sensorsen
dc.subject.classificationComputer Scienceen
dc.subject.classificationInformation and communicationen
dc.subject.classificationComputer scienceen
dc.titleA Lightweight Deep Learning Model Efficient Human Activity Recognition using Smartphone Sensorsen
dc.titleการพัฒนาแบบจำลองการเรียนรู้เชิงลึกน้ำหนักเบาเพื่อการรู้จำกิจกรรมของมนุษย์ โดยอาศัยข้อมูลเซนเซอร์จากสมาร์ตโฟนth
dc.typeThesisen
dc.typeวิทยานิพนธ์th
dc.contributor.coadvisorSakorn Mekruksavanichen
dc.contributor.coadvisorสาคร เมฆรักษาวนิชth
dc.contributor.emailadvisorsakorn.me@up.ac.th
dc.contributor.emailcoadvisorsakorn.me@up.ac.th
dc.description.degreenameMaster of Engineering (M.En. (Computer Engineering))en
dc.description.degreenameวิศวกรรมศาสตรมหาบัณฑิต (วศ.ม.(วิศวกรรมคอมพิวเตอร์))th
dc.description.degreelevelMaster's Degreeen
dc.description.degreelevelปริญญาโทth
dc.description.degreedisciplineComputer Engineeringen
dc.description.degreedisciplineวิศวกรรมคอมพิวเตอร์th
Appears in Collections:School of Information and Communication Technology

Files in This Item:
File Description SizeFormat 
64024815.pdf3.69 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.