| | SLO | ENG | Piškotki in zasebnost

Večja pisava | Manjša pisava

Izpis gradiva Pomoč

Naslov:Primerjava metod napada na globoke nevronske mreže z nasprotniškimi primeri in pristopov k zaščiti pred njimi : magistrsko delo
Avtorji:ID Novak, Robi (Avtor)
ID Strnad, Damjan (Mentor) Več o mentorju... Novo okno
ID Kohek, Štefan (Komentor)
Datoteke:.pdf MAG_Novak_Robi_2022.pdf (45,09 MB)
MD5: 28C564F58929C619AB04F9248269DE43
PID: 20.500.12556/dkum/18fb69ad-f246-4f6c-ab25-74d37deb8427
 
.zip MAG_Novak_Robi_2022.zip (65,17 KB)
MD5: 6458198C3B151733A1B0D41545B0815D
PID: 20.500.12556/dkum/bc3554d7-9a44-4d7d-a231-477d4932cab3
 
Jezik:Slovenski jezik
Vrsta gradiva:Magistrsko delo/naloga
Tipologija:2.09 - Magistrsko delo
Organizacija:FERI - Fakulteta za elektrotehniko, računalništvo in informatiko
Opis:Globoke nevronske mreže imajo ranljivosti, kot so nasprotniški primeri - neopazne namerne popačitve vhodnih podatkov, ki povzročijo neželeno spremembo izhoda. Ker so nasprotniški primeri prenosljivi, lahko popačitev tvorimo v scenariju črne škatle, brez da bi poznali strukturo ali uteži napadene mreže. V našem delu primerjamo več pristopov k napadu in zaščiti. Robustnost modela ovrednotimo glede na prepričanost v napačno klasifikacijo ter glede na statistično porazdelitev amplitud nasprotniških popačitev. Rezultati kažejo, da so amplitude uspešnih napadov tipično za en velikostni razred višje, če je napad izveden po scenariju črne škatle. Robustnost modela je odvisna od klasifikacijskega problema, arhitekture mreže ter pristopa k zaščiti. Za najbolj učinkovita napada sta se v scenariju bele škatle izkazala napada BIM in MI-FGSM, v scenariju črne škatle pa napada MI-FGSM in FGSM. Najučinkovitejša pristopa k zaščiti sta bila diskretizacija ter virtualno nasprotniško učenje. Pokazali smo tudi, da moramo za verodostojen preizkus učinkovitosti nasprotniškega učenja uporabiti napad, ki ni bil uporabljen v procesu učenja.
Ključne besede:globoko učenje, nasprotniški primeri, nevronske mreže, strojno učenje
Kraj izida:Maribor
Kraj izvedbe:Maribor
Založnik:[R. Novak]
Leto izida:2022
Št. strani:1 spletni vir (1 datoteka PDF (XI, 76 f.))
PID:20.500.12556/DKUM-81921 Novo okno
UDK:004.85:004.032.26(043.2)
COBISS.SI-ID:116049411 Novo okno
Datum objave v DKUM:06.07.2022
Število ogledov:925
Število prenosov:161
Metapodatki:XML DC-XML DC-RDF
Področja:KTFMB - FERI
:
NOVAK, Robi, 2022, Primerjava metod napada na globoke nevronske mreže z nasprotniškimi primeri in pristopov k zaščiti pred njimi : magistrsko delo [na spletu]. Magistrsko delo. Maribor : R. Novak. [Dostopano 21 januar 2025]. Pridobljeno s: https://dk.um.si/IzpisGradiva.php?lang=slv&id=81921
Kopiraj citat
  
Skupna ocena:
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
(0 glasov)
Vaša ocena:Ocenjevanje je dovoljeno samo prijavljenim uporabnikom.
Objavi na:Bookmark and Share


Postavite miškin kazalec na naslov za izpis povzetka. Klik na naslov izpiše podrobnosti ali sproži prenos.

Licence

Licenca:CC BY-NC-ND 4.0, Creative Commons Priznanje avtorstva-Nekomercialno-Brez predelav 4.0 Mednarodna
Povezava:http://creativecommons.org/licenses/by-nc-nd/4.0/deed.sl
Opis:Najbolj omejujoča licenca Creative Commons. Uporabniki lahko prenesejo in delijo delo v nekomercialne namene in ga ne smejo uporabiti za nobene druge namene.
Začetek licenciranja:18.06.2022

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Comparing adversarial example attacks on deep neural networks and defensive approaches
Opis:Deep neural networks suffer from unique vulnerabilities, such as adversarial examples - unobservable perturbations of input data that cause an unwanted change of the output. Adversarial examples are transferrable, which allows us to form an adversarial perturbation in the black-box scenario, without knowing the structure or weights of the attacked network. In our work, we compare various attacks and defensive approaches. We evaluate model robustness based on its confidence in the incorrect classification and the statistical distribution of adversarial perturbation amplitudes. Experiments show an order of magnitude increase in perturbation amplitudes when the black-box scenario is used. Model robustness varies depending on the classification problem, network architecture and defensive approach. According to our results, BIM and MI-FGSM are the most effective attacks in the white-box scenario, and MI-FGSM and FGSM in the black-box scenario. The most effective defenses were discretization and virtual adversarial training. Additionally, we have shown that a valid test of adversarial training requires the use of an attack that was not used during training.
Ključne besede:deep learning, adversarial examples, neural networks, machine learning


Komentarji

Dodaj komentar

Za komentiranje se morate prijaviti.

Komentarji (0)
0 - 0 / 0
 
Ni komentarjev!

Nazaj
Logotipi partnerjev Univerza v Mariboru Univerza v Ljubljani Univerza na Primorskem Univerza v Novi Gorici