| | SLO | ENG | Piškotki in zasebnost

Večja pisava | Manjša pisava

Iskanje po katalogu digitalne knjižnice Pomoč

Iskalni niz: išči po
išči po
išči po
išči po
* po starem in bolonjskem študiju

Opcije:
  Ponastavi


1 - 10 / 86
Na začetekNa prejšnjo stran123456789Na naslednjo stranNa konec
1.
Algoritem za učinkovit izračun verige elementarnih morfoloških filtrov na centralni procesni enoti
Danijel Žlaus, 2021, doktorska disertacija

Opis: V doktorski disertaciji predstavimo nov algoritem za učinkovit izračun verige elementarnih filtrov na centralni procesni enoti. Verige filtrov so temeljni del tako imenovanih geodetskih operatorjev, ki uporabljajo postopek morfološke rekonstrukcije. Ta iterativno filtrira in omejuje vrednosti filtrirane slike. Dobljeno učinkovitost razvitega algoritma delimo na dva dela. Prvi del se zanaša na učinkovit enonitni izračun elementarnih morfoloških filtrov, kar dosežemo s procesiranjem na mestu, dekompozicijo strukturnega elementa in uporabo vektorskih registrov za pohitritev izračuna. Drugi del pa razvite filtre uporabi za učinkovit vzporeden in hkraten izračun več filtrov v podani verigi. Vzporedni izračun je osnovan na emulaciji podatkovno pretokovnega procesiranja, kjer z analizo topologije predpomnilnika CPE in primernim pripenjanjem niti zagotovimo, da prenos podatkov med jedri CPE poteka preko predpomnilnika. Pokazali smo, da dosežemo največjo prepustnost procesiranja ob uporabi več neodvisnih vzporednih procesnih cevovodov, medtem ko najhitrejše odzivne čase dosežemo z uporabo enega cevovoda. Primerjava z algoritmi stanja tehnike in odprtokodnimi knjižnicami je pokazala, da je predlagani algoritem vedno dosegel boljše računske čase pri obdelavi verig filtrov. V primerjavi z iterativnim izračunom verige filtrov na splošnonamenskih grafičnih procesnih enotah se je predlagani algoritem prav tako izkazal za bistveno hitrejšega, tudi ko smo uporabili CPE nižjega cenovnega ranga.
Ključne besede: morfološki filtri, geodetski operatorji, veriga filtrov, obdelava slik, vzporedno procesiranje, podatkovno pretočna obdelava, vektorsko procesiranje, SIMD, centralna procesna enota
Objavljeno: 13.04.2021; Ogledov: 248; Prenosov: 60
.pdf Celotno besedilo (6,71 MB)
Gradivo ima več datotek! Več...

2.
Sistemi za spremljanje podatkov iz industrije in oblačne storitve
Lucija Martinšek, 2018, diplomsko delo

Opis: Namen diplomskega dela je prikazati in primerjati različne ponudnike naprav in storitev, ki se uporabljajo pri avtomatizaciji sistemov. Celotno raziskovanje je bilo izvedeno na spletu. Izvedena je primerjava različnih programirljivih logičnih krmilnikov glede na različne lastnosti in protokole, ki jih imajo. Ni jasnega zmagovalca, so samo najboljši glede na potrebe posameznega sistema. Predstavljeni so tudi najbolj znani ponudniki programske opreme za obdelavo podatkov, med katerimi prav tako ni nobeden izstopal. Pri primerjavi oblačnih storitev se Amazon Web Services izkaže kot najboljša in najbolj priljubljena izbira. Na realnem primeru pa je predstavljen sistem kompostnika iz kompostarne podjetja Simbio, d. o. o.
Ključne besede: programirljivi logični krmilniki, oblačne storitve, protokol, internet stvari, procesiranje podatkov, diplomske naloge
Objavljeno: 08.01.2019; Ogledov: 1070; Prenosov: 150
.pdf Celotno besedilo (2,01 MB)

3.
Porazdeljeno generiranje poročil detektorja plagiatov
Jože Fartek, 2018, diplomsko delo

Opis: Ker je relacijske podatkovne baze za hranjenje velike količine izvlečkov iz besedil in generiranje poročil detektorja podobnih vsebin težko horizontalno razširiti, smo za ta namen raziskali možnost uporabe podatkovnih baz NoSQL. Preizkusili smo več podatkovnih baz in izbrali najprimernejšo. Implementirali smo tudi nekaj algoritmov, ki so primerni za ugotavljanje podobnosti v parafraziranih besedilih in temeljijo na tvorjenju izvlečkov iz besedil s pomočjo normaliziranih n-gramov. Te algoritme smo primerjali z algoritmom za tvorjenje izvlečkov, ki se na Univerzi v Mariboru uporablja za detekcijo podobnih dokumentov. Po izbiri najustreznejše podatkovne baze NoSQL in algoritma za tvorjenje izvlečkov, smo implementirali prototip porazdeljenega sistema za ugotavljanje podobnih dokumentov in generiranje poročil detektorja podobnih vsebin.
Ključne besede: porazdeljeno procesiranje, koncept »MapReduce«, NoSQL, detekcija podobnih vsebin
Objavljeno: 19.10.2018; Ogledov: 530; Prenosov: 89
.pdf Celotno besedilo (1,23 MB)

4.
Učinkovitost razgradnje bisfenola A po hidrotermičnem procesiranju odpadne vode
Maša Seitl, 2018, magistrsko delo

Opis: Namen magistrskega dela je bil s sub- in superkritično oksidacijo v vodi degradirati bisfenol A (BPA). Poleg koncentracije BPA smo v vzorcih pri optimalnih pogojih preverjali tudi prisotnost oz. zmanjšanje organskih snovi z določanjem kemijske potrebe po kisiku (KPK) in celotnega organskega ogljika (TOC). S spreminjanjem glavnih parametrov pri hidrotermičnem procesiranju vode – temperature, tlaka in pretoka raztopine, smo z začetnimi poskusi v ultra čisti vodi najprej želeli določiti optimalne pogoje za obdelavo vzorcev z dodanim BPA. Najboljše rezultate smo dosegli s superkritično oksidacijo pri T = 500 °C, p = 275 bar in ϕV = 1,5 mL/min, kjer smo dosegli popolno degradacijo bisfenola A. Z izbranimi (optimalnimi) pogoji pri posameznih temperaturah smo nato hidrotermično obdelali še vzorce sintetične odpadne vode v katero smo dodali BPA. Tudi tokrat smo najvišjo, 99,5 %, degradacijo dosegli pri že prej navedenih pogojih. Pri teh pogojih smo dosegli tudi najvišja odstotka znižanja vrednosti KPK in TOC in sicer 62,32 % pri vrednosti KPK ter 18,03 % pri vrednosti TOC. Ugotovili smo, da je BPA zelo odporen na zunanje vplive in da je za njegovo degradacijo v vodi bolj primerna superkritična, kot pa subkritična oksidacija, le-ta pa mora potekati pri zelo ostrih pogojih (visoka temperatura in tlak) ter dolgih zadrževalnih časih v sistemu.
Ključne besede: bisfenol A, degradacija, hidrotermično procesiranje, subkritična oksidacija, superkritična oksidacija, odpadna voda
Objavljeno: 13.07.2018; Ogledov: 731; Prenosov: 102
.pdf Celotno besedilo (2,98 MB)

5.
Kategorizacija in detekcija sprememb v radarskih slikah sar z uporabo algoritma globokega učenja
Aleš Obal, 2018, magistrsko delo

Opis: V magistrskem delu je opisan postopek kategorizacije in detekcije sprememb v radarskih slikah SAR z uporabo konvolucijske nevronske mreže, tako imenovane »Deep Learning«. V ta namen je bil izdelan program v Matlab programskem okolju, ki je sposoben izrezati SAR radarsko sliko na poljubne manjše dele, ustvariti konvolucijsko nevronsko mrežo, jo naučiti ter uporabiti pri klasifikaciji in detekciji predelov površja na Zemlji. Programu je dodana tudi opcija uporabe grafično procesne enote »GPU« za pohitritev učenja konvolucijskih nevronskih mrež.
Ključne besede: SAR, kategorizacija slik, detekcija sprememb v sliki, globoke nevronske mreže, paralelno procesiranje
Objavljeno: 09.02.2018; Ogledov: 889; Prenosov: 136
.pdf Celotno besedilo (4,20 MB)

6.
Prenova sistema za spremljanje razpoložljivosti storitev procesiranja transakcij s plačilnimi karticami
Aleš Černilogar, 2017, magistrsko delo/naloga

Opis: Procesni center izvaja storitve procesiranja transakcij s plačilnimi karticami s pomočjo namenske avtorizacijske aplikacije. Za izvajanje teh storitev ima procesni center s svojimi strankami sklenjene dogovore o nivoju storitev (SLA). Poročila o izpolnjevanju SLA zahtev za te storitve se v procesnem centru izdelajo enkrat mesečno za pretekli mesec, nakar se poročilo o njihovem izpolnjevanju pošlje stranki. V kolikor po krivdi procesnega centra SLA zahteve niso dosežene, se to razume kot nerazpoložljivost storitve, kar ima za procesni center finančne posledice kakor tudi izgubo ugleda. Težava je v tem, da z obstoječim načinom dela pridobi procesni center informacije o doseganju SLA zahtev in posledično o razpoložljivosti posameznih storitev za pretekli mesec šele konec meseca, kar onemogoča hitro ukrepanje v primeru nedoseganja le-teh. Namen magistrskega dela je obstoječe procese prenoviti tako, da bo omogočeno »online« spremljanje doseganje SLA zahtev za storitve, ki se izvajajo spomočjo avtorizacijske aplikacije. Ker je procesiranje kartičnih transakcij široko področje, smo se v nalogi omejili na tri storitve avtorizacijske aplikacije, in sicer: - izvajanje vmesniških procesov do bank in drugih procesnih centrov - proces osveževanja datotek v bazi avtorizacijske aplikacije - spremljanje odzivnih časov bank na avtorizacijske zahtevke Z uvedbo »online« spremljanja doseganja SLA zahtev pridobimo možnost preventivnega ukrepanja ob ugotovljenem odstopanju od zahtev, določenih v SLA. Preventivni ukrepi se odražajo v boljši razpoložljivosti storitev procesnega centra, kar pripomore k večji učinkovitosti in boljšemu ugledu procesnega centra. Poleg tega se lahko sprotne informacije o doseganju SLA zahtev koristno uporabijo pri sklepanju novih ali spremembah obstoječih dogovorov SLA.
Ključne besede: razpoložljivost storitev, spremljanje razpoložljivosti, plačilne kartice, procesiranje transakcij, dogovor o ravni storitve (SLA)
Objavljeno: 22.12.2017; Ogledov: 590; Prenosov: 81
.pdf Celotno besedilo (4,30 MB)

7.
MEŠANJE ZVOKA Z ORODJI ABLETON LIVE 9
Dejan Pantner, 2016, diplomsko delo

Opis: V diplomskem delu obravnavamo mešanje zvoka, ki je eden izmed glavnih procesov na področju glasbene produkcije. Namen diplomskega dela je proučiti in predstaviti znanja, orodja, tehnike in opremo, ki je potrebna, da lahko rešujemo problematiko mešanja zvoka v digitalni domeni. Posledično tako v diplomskem delu predstavljamo orodja glasbene programske opreme Ableton Live 9, ki nam omogočajo reševanje tovrstne problematike, in delovno okolje, ki ga je za kvalitetno mešanje zvoka potrebno vzpostaviti. V praktičnem delu na primeru prikažemo mešanje zvoka, kar je tudi glavni cilj diplomskega dela.
Ključne besede: zvok, studio, procesiranje zvoka, mešanje zvoka
Objavljeno: 24.11.2016; Ogledov: 986; Prenosov: 122
.pdf Celotno besedilo (3,94 MB)

8.
Zagotavljanje zanesljivosti procesiranja dogodkov podporne infrastrukture v informacijsko varnih centrih
Barbara Brezovec, 2016, magistrsko delo

Opis: Procesiranje podatkov in učinkovito alarmiranje je pomembno za vzdrževanje in zagotavljanje zahtevane vrednosti zanesljivosti v podatkovnih centrih. Točna informacija o alarmu je pomembna za vzdrževalne postopke z namenom preprečitve odpovedi. V delu smo predstavili vplive in vidike, ki vplivajo na zanesljivost delovanja. Predstavljen je pristop izdelave podatkovnega modela na podlagi vozliščnega drevesa, ki vpliva na dvig nivoja zanesljivosti in razpoložljivosti, omogoča enostavnejši pristop in implementacijo, je modularen, zahteva manj sredstev in zniža stroške delovanja podatkovnega centra. Rezultati potrjujejo prednosti uporabe procesiranja dogodkov, saj se z natančno identifikacijo vzrokov zmanjša število prejetih alarmov. Odzivni čas po alarmu se zmanjša, kar vpliva na zvišanje vrednosti razpoložljivosti delovanja podatkovnega centra.
Ključne besede: zanesljivost, razpoložljivost, vzdrževalnost, podatkovni centri, procesiranje dogodkov, alarmiranje, magistrske naloge
Objavljeno: 12.10.2016; Ogledov: 1053; Prenosov: 72
.pdf Celotno besedilo (5,98 MB)

9.
MERJENJE FIZIKALNO-KEMIJSKIH IN TRANSPORTNIH LASTNOSTI SISTEMA POLIMER/SCF
Tina Kegl, 2016, diplomsko delo

Opis: Vedno večje zahteve po zmanjšanju negativnega vpliva na okolje in povečanju kakovosti proizvodov vodijo do pospešenih raziskav na področju razvoja novih tehnologij. Med razmeroma nove tehnologije uvrščamo visokotlačne procese s superkritičnimi fluidi, ki veljajo za okolju prijazna, zelena topila. Diplomsko delo prikazuje študijo fizikalno-kemijskih in transportnih lastnosti sistemov polimer/SCF z namenom procesiranja polimerov pri optimalnih eksperimentalnih pogojih. Preučevane lastnosti sistemov PEG 600/CO2 in Brij52/CO2 pri tlakih od 0 bar do 300 bar in temperaturah 333 K in 353 K so gostota, površinska napetost, topnost in difuzijski koeficient. Gostota sistema je določena z gostotomerom z nihajočo U-cevko in z magnetno suspenzijsko tehtnico. Površinska napetost je določena z metodo kapilarnega dviga. Magnetna suspenzijska tehtnica je bila uporabljena tudi za določanje difuzijskega koeficienta in topnosti superkritičnega CO2 v izbranih polimerih. Na osnovi analize eksperimentalno dobljenih fizikalno-kemijskih in transportnih lastnosti so določeni optimalni procesni parametri za procesiranje polimerov. Mikronizacija s superkritičnim CO2 polimera Brij52 in polimera Brij52 z zdravilno učinkovino esomeprazol je izvedena s PGSS-metodo, medtem ko je za pridobivanje polimerne pene iz Brij52 s superkritičnim CO2 uporabljena GF-metoda. V okviru diplomske naloge je izvedena tudi analiza dobljenih vzorcev po procesiranju polimerov z okoljskim vrstičnim elektronskim mikroskopom. Rezultati kažejo, da večjo topnost CO2 v talini polimera, večji difuzijski koeficient in manjšo površinsko napetost zagotavlja sistem Brij52/CO2 za vse izbrane tlake in temperature. Tlak in temperatura v avtoklavu pri mikronizaciji polimera Brij52 in polimera Brij52 z esomeprazolom ter tvorbi pene iz polimera Brij52 znašata 333 K in 150 bar. Po primerjavi dobljenih rezultatov sistema PEG 600/CO2 z razpoložljivimi rezultati iz literature ugotavljamo, da se vplivi posameznih preučevanih parametrov na fizikalno-kemijske in transportne lastnosti dobro ujemajo. Na osnovi tega lahko sklepamo, da so meritve uspešno izvedene tudi za sistem Brij52/CO2, za katerega ni ustreznih rezultatov v razpoložljivi literaturi.
Ključne besede: procesiranje polimerov, superkritični fluid, gostota, površinska napetost, topnost, difuzijski koeficient
Objavljeno: 08.09.2016; Ogledov: 2250; Prenosov: 1231
.pdf Celotno besedilo (3,51 MB)

10.
PORAZDELJENA POMENSKA ANALIZA DOKUMENTOV V PROGRAMSKEM OGRODJU APACHE HADOOP
David Starina, 2016, diplomsko delo

Opis: V diplomskem delu obravnavamo porazdeljeno pomensko analizo dokumentov v programskem ogrodju Apache Hadoop. Opišemo sestavo in delovanje Hadoopa, predvsem porazdeljenega datotečnega sistema HDFS in pogajalca za vire YARN. Predstavimo različne metode za pomensko analizo besedil, osredotočimo se na linearno Dirichletovo razporeditev (LDA) in podamo različne metrike za ugotavljanje podobnosti med vektorji. Predstavimo implementacijo rešitve za iskanje podobnih dokumentov s pomočjo programske knjižnice Apache Mahout in razpravljamo o primerih z LDA-jem generiranih tem. Predstavimo rezultate meritev na porazdeljeni in ne-porazdeljeni različici in predstavimo nekaj predlogov za hitrejšo analizo.
Ključne besede: pomenska analiza, porazdeljena obdelava, Hadoop, linearna Dirichletova razporeditev, procesiranje naravnega jezika
Objavljeno: 08.09.2016; Ogledov: 852; Prenosov: 132
.pdf Celotno besedilo (1,33 MB)

Iskanje izvedeno v 0.15 sek.
Na vrh
Logotipi partnerjev Univerza v Mariboru Univerza v Ljubljani Univerza na Primorskem Univerza v Novi Gorici