Prva varianta poročila

This commit is contained in:
2025-05-10 22:14:57 +02:00
parent d933d92667
commit b32d131483

View File

@@ -225,10 +225,14 @@
"metadata": {},
"source": [
"### 3.1. Podatki <a class=\"anchor\" id=\"podatki\"></a>\n",
"Vhodni podatki izvirajo iz nabora [CIFAKE](https://www.kaggle.com/datasets/birdy654/cifake-real-and-ai-generated-synthetic-images), ki vsebuje slike iz učne množice [CIFAR-10](https://www.cs.toronto.edu/~kriz/cifar.html) ter njihove ponaredke. Nabor vključuje poenotene primere resničnih in sintetičnih slik, kar omogoča učenje modela za razločevanje med obema razredoma. Primeri so ločeni na učne in vrednotenjske podatke, nato pa na prave in ponarejene slike.\n",
"Vhodni podatki izvirajo iz nabora [CIFAKE](https://www.kaggle.com/datasets/birdy654/cifake-real-and-ai-generated-synthetic-images), ki vsebuje slike iz učne množice [CIFAR-10](https://www.cs.toronto.edu/~kriz/cifar.html) ter njihove ponaredke. Nabor vključuje poenotene primere resničnih in sintetičnih slik, kar omogoča učenje modela za razločevanje med obema razredoma. Primeri so ločeni na učne in vrednotenjske podatke, nato pa na prave in ponarejene slike. Slike so za hitro učenje majhne, dimenzij 32x32 px.\n",
"\n",
"Za potrebe raziskave so bile vse slike predhodno obdelane s pomočjo Laplaceovega operatorja, pri čemer smo uporabili konvolucijski filter za izračun prostorskega odvoda. Ta postopek je bil izveden s pomočjo Python skripte, razvite posebej za to nalogo. Rezultat te obdelave je nov slikovni nabor poimenovan CIEDGE, ki vsebuje robne in teksturne značilnosti izvornih slik.\n",
"\n",
"<img height=128px src=\"./CIFAKE/test/FAKE/0.jpg\">\n",
"<img height=128px src=\"./CIEDGE/test/FAKE/0.jpg\">\n",
"\n",
"\n",
"<p style=\"margin-bottom:2cm;\"></p>\n",
"<img src=\"https://raw.githubusercontent.com/andrejkk/ORvTK_SlidesImgs/master/footer_full.jpg\">"
]
@@ -240,9 +244,9 @@
"source": [
"### 3.2. Učenje modela <a class=\"anchor\" id=\"podatki\"></a>\n",
"Za model je bil uporabljen ResNet-18. Kot izhodišče je bil uporabljen vnaprej naučen model (angl. pre-trained), dostopen prek knjižnice torchvision. Model je bil nadalje umerjen (angl. fine-tuned) na naboru [CIFAKE](https://www.kaggle.com/datasets/birdy654/cifake-real-and-ai-generated-synthetic-images).\n",
"Trening je bil izveden na osebnem računalniku avtorja. Po uspešnem učenju je bil model shranjen za nadaljnjo uporabo kot referenca.\n",
"Trening je bil izveden na osebnem računalniku avtorja z grafično kartico AMD Vega 56 v okolju PyTorch z ROCM pospeševanjem. Po uspešnem učenju je bil model shranjen za nadaljnjo uporabo kot referenca.\n",
"\n",
"V drugem koraku se vnaprej naučen model dodatno umeri na novo ustvarjenem naboru CIEDGE, ki vsebuje Laplaceovo filtrirane slike. Ta korak je omogočil prilagoditev modela na drugačno predstavitev vhodnih podatkov takšno, ki ohranja samo robove in podrobnosti. Tudi ta model je bil shranjen v obliki .pth za nadaljnjo uporabo.\n",
"V drugem koraku se vnaprej naučen model dodatno umeri na novo ustvarjenem naboru CIEDGE, ki vsebuje Laplaceovo filtrirane slike. Ta korak je omogočil prilagoditev modela na drugačno predstavitev vhodnih podatkov takšno, ki ohranja samo robove in podrobnosti. Tudi ta model je bil shranjen za nadaljnjo uporabo.\n",
"\n",
"<p style=\"margin-bottom:2cm;\"></p>\n",
"<img src=\"https://raw.githubusercontent.com/andrejkk/ORvTK_SlidesImgs/master/footer_full.jpg\">"
@@ -254,7 +258,7 @@
"metadata": {},
"source": [
"### 3.2. Eksperimentalni rezultati <a class=\"anchor\" id=\"eksperimentalni-rezultati-1\"></a>\n",
"#### Natančnost\n",
"#### Natančnost (Accuracy)\n",
"\n",
"CIFAKE model s CIFAKE podatki: 97.55% \n",
"CIFAKE model s CIEDGE podatki: 62.73% \n",
@@ -275,6 +279,10 @@
"#### ROC Krivulje\n",
"\n",
"\n",
"<img src=\"./cfmcfd.png\">\n",
"<img src=\"./cfmced.png\">\n",
"<img src=\"./cemcfd.png\">\n",
"<img src=\"./cemced.png\">\n",
"\n",
"\n",
"<p style=\"margin-bottom:2cm;\"></p>\n",
@@ -288,15 +296,11 @@
"source": [
"## 4. Zaključek in razprava <a class=\"anchor\" id=\"zakljucek-in-razprava\"></a>\n",
"\n",
"Model, dodatno umerjen na naboru CIEDGE, dosega 98 % AUC pri klasifikaciji slik na anonimiziranem naboru podatkov, kar pomeni 25 odstotnih točk boljši rezultat v primerjavi z modelom, umerjenim zgolj na naboru CIFAKE, ki dosega AUC vrednost 73 %.\n",
"\n",
"Zaključki - kaj lahko sklepamo neposredno iz eksperimentalnih rezultatov v strogem smislu, to je kar sledi neposredno iz dobljenih rezultatov. \n",
"\n",
"\n",
"Glavni rezultati - povzetek v smislu glavne ugotovitve. Kaj sledi iz doseženih rezultatov. \n",
"\n",
"\n",
"Opažanja in razprava - tu so na mestu širša opazanja, lahko tudi sama mnenja glede doseženih rezultatov. \n",
"Iz teh rezultatov lahko sklepamo, da je dodatno umerjanje modelov strojnega učenja na anonimiziranih podatkih učinkovita strategija za zaznavanje z umetno inteligenco generiranih slik tudi kadar vhodni podatki ne vsebujejo vseh originalnih vizualnih informacij.\n",
"\n",
"V prihodnje bi bilo smiselno ovrednotiti uporabo novejših modelov globokega učenja, širših in bolj raznolikih podatkovnih množic ter alternativnih metod anonimizacije, da bi še izboljšali robustnost in prenosljivost rešitve.\n",
"\n",
"\n",
"<p style=\"margin-bottom:2cm;\"></p>\n",
@@ -310,12 +314,7 @@
"source": [
"## 5. Doseženi učni izidi <a class=\"anchor\" id=\"dosezeni-ucni-izidi\"></a>\n",
"\n",
"\n",
"Kaj ste se pri izdelavi projekta naučili. Na kratko v poljudnem jeziku, med drugim:\n",
"- Razumevanje teoretičnih konceptov.\n",
"- Spoznavanje algoritmov. \n",
"- Pridobljene izkušnje s podatki.\n",
"\n",
"Ob izdelavi raziskovalne naloge sem pridobil pomembno znanje o osnovah strojnega učenja. Naučil sem se umerjanja in vrednotenja modelov strojnega učenja ter praktično uporabil predhodno pridobljeno znanje obdelave slik.\n",
"\n",
"\n",
"<p style=\"margin-bottom:2cm;\"></p>\n",
@@ -328,13 +327,20 @@
"metadata": {},
"source": [
"## 6. Literatura in viri <a class=\"anchor\" id=\"literatura-in-viri\"></a>\n",
"Pomembni članki uporabljenih naborov in modelov:\n",
"+ K. He, X. Zhang, S. Ren, in J. Sun, „Deep Residual Learning for Image Recognition“. arXiv, 10. december 2015. doi: 10.48550/arXiv.1512.03385. Dostopno na: http://arxiv.org/abs/1512.03385. [Pridobljeno: 10. maj 2025]\n",
"+ M. Tan in Q. V. Le, „EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks“. arXiv, 11. september 2020. doi: 10.48550/arXiv.1905.11946. Dostopno na: http://arxiv.org/abs/1905.11946. [Pridobljeno: 10. maj 2025]\n",
"+ L. Wang, Q. Hu, W. Lu, in X. Luo, „Diffusion-based Adversarial Identity Manipulation for Facial Privacy Protection“. arXiv, 30. april 2025. doi: 10.48550/arXiv.2504.21646. Dostopno na: http://arxiv.org/abs/2504.21646. [Pridobljeno: 10. maj 2025]\n",
"+J. J. Bird in A. Lotfi, „CIFAKE: Image Classification and Explainable Identification of AI-Generated Synthetic Images“, IEEE Access, let. 12, str. 1564215650, 2024, doi: 10.1109/ACCESS.2024.3356122\n",
"+A. Krizhevsky, „Learning Multiple Layers of Features from Tiny Images“, University of Toronto, maj 2012.\n",
"\n",
"Seznam literature \n",
"\n",
"Explores the VAD (Valence, Arousal, Dominance) model and its application in understanding human emotions.\n",
"Wickens, C. D. (2008). \"Multiple Resources and Mental Workload.\" Human Factors: The Journal of the Human Factors and Ergonomics Society.\n",
"\n",
"Dokumentacija uporabljenih programskih knjižnic:\n",
"+ [PyTorch](https://docs.pytorch.org/docs/stable/index.html)\n",
"+ [TorchVision](https://docs.pytorch.org/vision/stable/index.html)\n",
"+ [TQDM](https://tqdm.github.io/)\n",
"+ [OpenCV](https://opencv.org/)\n",
"\n",
"Programska koda projekta je prosto dostopna na avtorjevem GIT repozitoriju https://git.piskot.si/kristjank/ovt-projekt\n",
"\n",
"<p style=\"margin-bottom:2cm;\"></p>\n",
"<img src=\"https://raw.githubusercontent.com/andrejkk/ORvTK_SlidesImgs/master/footer_full.jpg\">"