• Ei tuloksia

An electrode management model for the submerged arc furnace

N/A
N/A
Info
Lataa
Protected

Academic year: 2022

Jaa "An electrode management model for the submerged arc furnace"

Copied!
148
0
0

Kokoteksti

(1)

TEKNILLINEN KORKEAKOULU Materiaalitekniikan Osasto

Mikael Louhi

Uppokaariuunin Elektrodien Hallintamalli

Tutkintotehtävä, joka on jätetty tarkastettavaksi diplomi-insinöörin tutkintoa varten.

Espoossa 31.5.2007

Valvoja:

Professori Sirkka-Liisa Jämsä-Jounela

Ohjaaja:

(2)

1

ALKULAUSE

Tämä työ on tehty Outotec Oyj:n (aiemmin Outokumpu Technology) tiloissa Espoossa 18.9.2006 - 31.5.2007. Työ on tehty kahden teollisuusyrityksen yhteishankkeena teknologian kehitystyönä. Projektin teollisuusosapuolina ovat Outotec Oyj ja eteläafrikkalainen ferrokromin valmistaja.

Työni valvojana toimi professori Sirkka-Liisa Jämsä-Jounela. Kiitän häntä valvovasta silmästä ja työtäni kohtaan osoitetusta mielenkiinnosta.

Haluan kiittää työni ohjaajaa, Janne Ollilaa opastuksesta ja avusta työn kulun aikana.

Kiitos hänelle siitä, että sain osallistua näin kiinnostavaan projektiin ja siitä, että hän jatkuvasti ohjasi työtä oikeaan suuntaan.

Haluan kiittää Outotecillä koko Ferroalloys-ryhmää piristävästä ja kiinnostavasta työilmapiiristä. Haluan myös kiittää Ari Rantalaa ja Åge Grahnia tietoteknisestä tuesta.

Kiitokset myös Outotecillä työskentelevälle iskuryhmälle; Lauri Pesonen, Markus Niemi, Mikael Jäfs, joka asiantuntevuudellaan loi mieluisan työympäristön.

Vanhemmilleni ja sisaruksilleni haluan osoittaa kiitoksen kannustamisesta, uskomisesta kykyihini ja elämän perusarvojen opettamisesta. Suuret kiitokset Johannalle siitä tuesta ja inspiraatiosta, jota olen työni ja opiskeluaikanani saanut.

Työn iloa!

Espoossa toukokuun 31. päivänä 2007

Mikael Louhi

(3)

TEKNILLINEN KORKEAKOULU DIPLOMITYÖN TIIVISTELMÄ Materiaalitekniikan osasto

Tekijä

31.5.2007

Mikael Louhi Sivumäärä

123 (+12)

Työn nimi

Uppokaariuunin Elektrodien Hallintamalli

Professuuri Koodi

Prosessien ohjaus Kem - 90

Työn valvoja

Professori Sirkka — Liisa Jämsä - Jounela

Työn ohjaaja

DI Janne Ollila

Tekoälyn käyttö on viime vuosina lisääntynyt teollisprosessien mallintamisessa, ohjauksessa ja optimoinnissa. Menestyksellisiä sovelluksia on raportoitu lukuisia, erityisesti metallurgisessa teollisuudessa.

Uppokaariuunissa tapahtuvassa ferrokromin sulatusprosessissa esiintyy useita ainefaaseja samanaikaisesti ja reaktioiden täydellinen kartoittaminen on vaikeaa.

Uunin ja elektrodien toiminta onkin jatkuvasti tutkimustyön kohteena ja työkaluina käytetään mm. tekoälyyn perustuvia monitorointimenetelmiä.

Tämän diplomityön kirjallisuusosassa kartoitetaan teollisuudessa käytettäviä monitorointimenetelmiä ja lähemmin tarkastellaan älykkäiden monitorointimenetelmien; asiantuntijajärjestelmien, sumean logiikan ja erityisesti neuroverkkomenetelmien teoriaa ja rakennetta, sekä niiden sovelluksia metalliteollisuudessa.

Kokeellisen osan alussa perehdytään ferrokromin sulatusprosessiin, Söderberg- elektrodien toimintaan ja niihin liittyviin ilmiöihin. Diplomityön tavoitteena oli luoda käppäämiselle ennustava offline-malli käyttäen CSense-nimistä ohjelmistoa ja neuroverkkomenetelmää. Mallinnus suoritettiin käyttäen Etelä-Afrikassa sijaitsevalta ferrokromilaitokselta saatua elektrodikohtaista prosessidataa.

Aiemman tutkimustyön ja alan asiantuntijoiden tiedon perusteella elektrodiin liittyvistä ilmiöistä mallin muuttujiksi valittiin elektrodissa kulkeva virta, elektrodin ja panoksen välinen vastus, käppäyslaitteiston hydraulinen paine ja vuorokohtainen käppäysmäärä. Offline-simulointien tulokset olivat hyviä. Mallit ennustivat noin 60- 80% tarkkuudella todellisuudessa suoritetun käppäyksen. Tulokset luovat hyvän perustan jatkotutkimuksille.

Avainsanat: CSense, elektrodi, käppäys, ferrokromi, mallintaminen,

____________ monitorointimenetelmä, neuroverkko, PLS, uppokaariuuni._______________

(4)

Ill

HELSINKI UNIVERSITY OF TECHNOLOGY ABSTRACT OF THE

Department of Materials Science and Engineering MASTER’S THESIS

Author

Mikael Louhi

Date

31.5.2007

Pages

123 (+12)

Title of thesis

An Electrode Management Model for the Submerged Arc Furnace

Chair Chair Code

Process Control Kem - 90

Supervisor

Professor Sirkka — Liisa Jämsä jounela

Instructor

jänne Ollila, M.Sc. (Tech)

The use of artificial intelligence in modelling, controlling and optimizing industrial processes has grown substantially. Numerous successful applications have been reported, especially in the field of metallurgy.

The smelting process of ferrochrome that is performed in a submerged-arc furnace is a multiphase process, and reactions occurring therein are difficult to map.

Furnace and electrode functions are constant objects of research. Tools used in the research work include monitoring methods that are based on artificial intelligence.

In the literature study of this thesis a survey of monitoring methods is conducted.

In the survey the intelligent monitoring methods: expert systems, fuzzy logics and particularly artificial neural networks, receive extra attention. Theory, architecture and applications of the methods in the metals industry are studied.

In the experimental part of this thesis the ferrochrome smelting process is presented and the functions of and phenomena related to the Söderberg electrodes are scrutinized. The aim of this thesis was to utilize software called CSense to develop a predictive model for the electrode slipping using artificial neural networks. The modelling was conducted with electrode specific process data gathered from a South African ferrochrome plant.

Model development and simulations were based on previous research work and expert knowledge in the field. Of the numerous phenomena related to the electrode functions the following were chosen as modelling variables: electrode current, charge resistance, hydraulic pressure of the slipping device and shift based slipping.

Offline simulations were conducted and the obtained results were good. Model prediction accuracies were approximately 60-80% of performed shift based and total slipping. The simulation results lay a good foundation for future studies.

Keywords: CSense, electrode, slip, ferrochrome, modeling, monitoring methods, ___________ neural networks, PLS, submerged-arc furnace._____________________________

(5)

IV

SISÄLLYSLUETTELO

ALKULAUSE...i

TIIVISTELMÄ... ii

ABSTRACT...iii

SISÄLLYSLUETTELO ... iv

LIITELUETTELO... vii

SYMBOLI LUETTELO... viii

1. JOHDANTO... 1

KIRJALLISUUSOSA... 3

2. Monitorointimenetelmät... 3

2.1. Kvantitatiiviset prosessihistoriaan perustuvat monitorointimenetelmät... 4

2.1.1. Pääkomponenttianalyysi... 4

2.1.2. Osittaisten neliösummien menetelmä ... 6

2.1.3. Tilastolliset luokittelijat... 7

2.1.4. Neuroverkot... 8

2.2. Kvalitatiiviset prosessihistoriaan perustuvat monitorointimenetelmät... 9

2.2.1. Asiantuntijajärjestelmät... 9

2.2.2. Kvalitatiivinen trendianalyysi... 9

2.3. Hybridimenetelmät...10

2.4. Älykkäät monitorointimenetelmät...10

2.4.1. Asiantuntijajärjestelmät... 10

2.4.2. Sumea logiikka... 11

2.4.2.1. Sumea joukko ja päättely... 12

2.4.3. Neuroverkot...14

2.4.3.1. Neuroverkon piirteitä...15

2.4.3.2. Neuroverkon rakenne ...17

2.4.3.3. Neuroverkon opetusalgoritmeja... 18

2.5. Hybridimenetelmät... 26

2.5.1. Yhteistoiminnalliset neuro-sumeat järjestelmät... 26

2.5.2. Neuroverkkopohjäinen päättely... 27

2.5.3. Hybridi neuro-sumea järjestelmä... 28

3. Monitorointimenetelmien vertailu...29

3.1. Älykkäiden monitorointimenetelmien vertailu...30

3.1.1. Asiantuntijajärjestelmien soveltuvuus...31

3.1.2. Sumean logiikan käyttöalueet... 31

3.1.3. Neuroverkkojen käyttö ja edellytykset... 32

3.1.3.1. Neuroverkkojen käyttöön liittyviä ongelmia... 32

3.1.3.2. Neuroverkkojen sovelluskohteet 34

(6)

3.1.4. Hybridimenetelmien käyttö... 34

4. Tekoälyn teollisuussovelluksia sulatuksen optimoinnissa... 35

4.1. Uppokaariuunin suorituskyvyn ennustaminen neuroverkoilla eri raaka- ainekombinaatioita käyttäen... 35

4.2. DC-valokaariuunin mallintaminen kaaosteorian ja neuroverkkojen avulla..40

4.3. Älykäs säätöjärjestelmä ferroseoslaitokselle...42

4.4. Älykäs elektrodien säädin ...44

4.5. Uppokaariuunin elektrodeille kehitetty käppäysmalli...45

KOKEELLINEN OSA... 51

5. Kokeellisen osan tavoite... 51

6. Ferrokromiprosessi...52

6.1. Ferrokromiprosessin kuvaus ... 52

6.1.1. Jauhatus... 53

6.1.2. Suodatus...53

6.1.3. Sekoitus... 54

6.1.4. Pelletointi...54

6.1.5. Sintraus ...54

6.1.6. Esikuumennus...55

6.1.7. Sulatus...55

6.1.7.1. Panoksen sähkönjohtavuus uppokaariuunissa... 56

6.1.7.2. Tärkeimmät reaktiot uppokaari uunissa...58

7. Söderberg-elektrodi ja sitä ympäröivät ilmiöt... 59

7.1. Elektrodi järjestelmän rakenne ja elektrodimassa... 61

7.2. Elektrodin käppääminen... 62

7.3. Elektrodin katkeaminen... 63

7.4. Elektrodin kulumiseen vaikuttavat ilmiöt...64

7.4.1. Elektrodimassan kulutuksen tutkimismenetelmä ...65

7.5. Elektrodin pään sijainnin määrittäminen ...66

7.5.1. Elektrodin pään sijainnin määrittäminen kankimitt au s tekniikalla...67

7.5.2. Elektrodin pituuden arvioiminen Alekseevin yhtälön perusteella...67

7.5.3. Elektrodin reaktanssiin perustuva elektrodin pään sijainnin arviointi...68

7.5.4. Kaasun suhdelukuihin perustuva elektrodin pään sijainnin arviointi...69

7.5.5. Jäähdytysveden mittauksiin perustuva elektrodin pään sijainnin arviointi...69

7.5.6. ELMO, elektrodin pituuden monitorointi... 69

7.5.7. Ehdotettuja menetelmiä elektrodin pään sijainnin määrittämiseksi...71

7.5.8. Käytössä oleva elektrodin pään sijainnin määrittämisen tekniikka....71

(7)

VI

8. Käppäysmallin kehittäminen... 73

8.1. Mallin kehittämiseen käytetyt työkalut...73

8.1.1. CSense Wizard... 74

8.1.2. CSense Architect... 78

8.2. Datan esikäsittely... 79

8.2.1. Datan suodatus...79

8.2.2. Puuttuva tai epätäydellinen data...79

8.2.3. Datan skaalaus... 80

8.2.4. Mallintamisessa käytetty prosessidata...80

8.3. Mallintamisessa käytetyt muuttujat...83

8.3.1. Muuttujien korrelaatioanalyysi... 84

8.4. Menetelmän valinta ... 86

8.5. Menetelmän soveltuvuuden arvioiminen...87

8.5.1. Menetelmien vertailussa käytetyt työkalut...88

8.5.1.1. Ma lii para m e tri e n määrä ja neuroverkkorakenne...89

9. Vertailutesti...90

9.1. Vertailutestin tulokset... 90

9.1.1. Elektrodin 1 vertailutestin tulokset... 91

9.1.2. Elektrodin 2 vertailutestin tulokset... 93

9.1.3. Elektrodin 3 vertailutestin tulokset... 95

9.2. Vertailutestin tulosten tarkastelu ... 96

10. Ennustava käppäysmalli...98

10.1. Offline-mallin rakenne ja toiminta...98

10.2. Online-malli...101

11. Offline-simulointi... 102

11.1. Offline-simuloinnin tulokset... 103

11.1.1. Elektrodin 1 offline-simuloinnin tulokset... 103

11.1.2. Elektrodin 2 offline-simuloinnin tulokset... 106

11.1.3. Elektrodin 3 offline-simuloinnin tulokset... 109

12. Tulosten analysointi... 113

12.1. Vertailutesti...113

12.2. Offline-simulointi ... 114

12.3. Prosessidataan ja malleihin liittyviä huomioita...115

12.4. Mallin sopeutumiskyky ... 116

13. Yhteenveto ja jatko tu tkimusehdotukset...117

14. Lähdeluettelo...119

(8)

LIITELUETTELO

Liite 1. Vertailutestin PLS- ja neuroverkkomallien opetus ja Liite 2. Offline-simuloinnin muita tuloksia.

(9)

viii

SYMBOLILUETTELO

Isot kirjaimet:

A В C E Ec E¡

Fd

F, F, Fk

F(-) H I Ia

J

K L P R S

s,

T V

w

X Y

Sumea joukko

Kerrosten kynnysarvo Kulumisnopeus

Odotusarvo, residuaali Verkon kumulatiivinen virhe Päivän energiakulutus

Sumea tieto Sumea päättely Elektrodin kulutus Sumea tietämyskanta Akti voi n ti funktio Hessen matriisi Virta, yksikkömatriisi Virrantiheys

Jacobin matriisi Käppäysindeksi

Latausmatriisi, piilokerrosten lukumäärä Pistematriisi, hydraulinen paine

Korrelaatio kerroin, vastus Käppäys, käppäysvauhti Päivä i:n käppäysmäärä Kohdesignaali

Painokerroin Painokerroin

Datamatriisi, datajoukko Datamatriisi, datajoukko

Pienet kirjaimet:

c Riippumaton muuttuja

c Kova arvo

g Gradientti V

(10)

n Opetusdatan havaintojen lukumäärä

о Ulostulovektori

t Tavoitevektori opetusdatassa

Vjk Piilokerroksen painokertoimet

Wij Ulostulokerroksen painokertoimet

Xk Neuroverkon syötteet

Neuroverkon ulostulot

Isot kreikkalaiset kirjaimet:

I

Summa

Pienet kreikkalaiset kirjaimet:

ос Suodatinvakio

Ô Virhesignaali

n

Oppimiskerroin

P* Sumean joukon jäsenyysfunktio

a Keskihajonta

e

Osittaisderivaatta

Lyhenteet:

ANFIS Adaptive Neural based Fuzzy Inference System ANN Neuroverkko (Artificial Neural Network)

CCA Kanoninen korrelaatioanalyysi (Canonical Correlation Analysis)

CRI Kompositio päättelysääntö (Compositional Rule of Inference)

Ei Elektrodi i

EiXj Elektrodi I, syöteryhmä X, tulos j

EAF Valokaariuuni (Electric-Arc Furnace)

ES Asiantuntijajärjestelmä (Expert System)

EWMA Eksponentiaalinen painotettu keskiarvo (Exponential weighted moving average)

MLP Monikerroksinen perceptron

NLCCA Epälineaarinen CCA (Non-linear CCA)

(11)

X

NLPCA Epälineaarinen PCA (Non-linear PCA) NLPLS Epälineaarinen PLS (Non-linear PLS)

PC Pääkomponentti (Principal Component)

PCA Pääkompo netti analyysi (Principal Component Analysis) PCI Tuotantoindeksi (Production Capability Index)

PLS Osittaisten neliösummien menetelmä (Partial Least Squares / Projection to Latent Squares)

PRESS Ennus tus virheen neliöiden summa (Prediction residual error sum of squares)

QTA Kvalitatiivinen trendianalyysi (Qualitative Trend Analysis)

RBF Radiaali kan ta funktio (Radial Basis Function)

RMSEC Kalibrointivirheen neliön keskiarvon neliöjuuri (Root mean square error of calibration)

RMSECV Neliöjuuri ristivalidointidatan keskiarvosta (Root mean sqaure error of cross validation)

RMSEP Ennus tus virheen neliön keskiarvon neliöjuuri (Root mean square error of prediction)

SAP Uppokaariuuni (Submerged Arc Furnace)

SOM Itseorganisoituva kartta (Self-Organizing Map) SPE Ennus tus virheen neliö (Square Prediction Error)

(12)

1. JOHDANTO

Ferroseosten tuotantolaitosten tuoton maksimointiin ja laadun kohentamiseen etsitään jatkuvasti uusia keinoja ja mahdollisuuksia. Ferroseosten valmistus tapahtuu suurissa tuotantoyksiköissä; uppokaariuuneissa. Uppokaariuuni on hyvin monimutkainen yksikkö, jossa fysikaaliset ja kemialliset prosessit; lämmönjohtuminen, hapettuminen, pelkistyminen, materiaalin sulaminen ja kaasun syntyminen tapahtuvat samanaikaisesti suljetussa tilassa. Prosessit ovat monivaiheisia, sisältävät useita prosessimuuttujia, ovat epälineaarisia, sisältävät pitkiä aikaviiveitä ja ovat tavallisesti epästabiileja, jonka takia reaktiot ovat vaikeasti havaittavissa.

Uppokaariuunisulatusprosessin optimointi on yksi tärkeimmistä taloudellisista tekijöistä ferroseostuotannossa. Teknisessä mielessä sulatuksen stabiilisuus on ensisijaisen tärkeää. Sulatus tapahtuu uppokaariuunissa, jossa kolme Söderberg- elektrodia ovat upotettuna seosaineiden muodostamaan panokseen. Muuntajalta johdetaan elektrodeihin sähkövirta, joka siirtyy valokaaren avulla panokseen. Sulassa virta hälventyy lämmöksi ja mahdollistaa metallurgiset prosessit. Elektrodit kuluvat sulatuksessa ja tietty elektrodin pään sijainti antaa optimaalisen uunin ajon, joten elektrodeja on painettava eli käpättävä panokseen käppäyslaitteella. Koska uppokaariuunin rakenne on suljettu, elektrodien asetussyvyyttä on vaikea arvioida ulkoapäin uunin ollessa toiminnassa.

Elektrodin pituutta ja käppäyksen tarvetta pystytään nykyisin arvioimaan prosessiarvoja tarkkailemalla ja niihin perustuvilla menetelmillä estimoimalla sulatusprosessiin liittyvät parametrit. Tämä diplomityö tehtiin yhteistyössä eteläafrikkalaisen ferrokromilaitoksen kanssa ja tavoitteena oli kehittää prosessihistoriaan perustuva malli, joka ennustaa käppäystarvetta tietyn aikaikkunan puitteissa. Malli, joka jatkossa on tarkoitus implementoida teollisuudessa, tulee toimimaan operaattoria ohjeistavan sovelluksen pohjana.

Ennustava malli perustuu prosessidatan analysointiin ja syötteiden ja vasteiden aikaleimojen sovittamiseen niin, että toivottu datapari opettaa mallia ennustamaan käppäystä. Prosessin monitorointi mahdollistaa prosessidatan analysoinnin ja tulosten hyödyntämisen mallien ja säätöstrategian kehittämisessä, jotka edelleen mahdollistavat prosessien optimaalisen ohjauksen ja toiminnan. Mallipohjaiset menetelmät vaativat tietoa prosessista, joko kvalitatiivista tai kvantitatiivista. Prosessihistoriaan perustuvia kvalitatiivisia ja kvantitatiivisia malleja on laajasti käytetty ferrokromin valmistuksen ohjauksessa ja tulokset ovat olleet hyviä.

(13)

Diplomityön kirjallisuusosassa kartoitetaan teollisuudessa käytettäviä monitorointimenetelmiä ja tarkastellaan lähemmin älykkäiden monitorointimenetelmien; asiantuntijajärjestelmien, sumean logiikan ja erityisesti neuroverkkomenetelmien teoriaa ja neuroverkkojen rakenteita, sekä niiden sovelluksia metalliteollisuudessa.

Diplomityön kokeellisessa osassa perehdytään uppokaariuunissa tapahtuvaan ferrokromin sulatukseen, perustellaan tietyn monitorointimenetelmän valinta sulatuksessa tapahtuvan ilmiön mallintamiselle, kehitetään malli, simuloidaan mallia antamalla sen prosessoida historiallista prosessidataa ja antaa arvojen perusteella ennuste. Työn lopussa tarkastellaan simulointituloksia ja suoritetaan niiden analysointi.

(14)

KIRJALLISUUSOSA

2. Monitorointimenetelmät

Prosessin monitorointimenetelmien avulla saadaan tietoa prosessin tilasta ja laitteiden kunnosta. Mallintamisperspektiivistä katsoen on menetelmiä, jotka vaativat täsmällisiä prosessimalleja ja toisaalta on menetelmiä, jotka perustuvat ainoastaan prosessihistoriaan. Monitorointimenetelmät voidaan luokitella kuvan 1 mukaisesti (Venkatasubramanian et ai. 2003a).

Prosessimalliin perustuvat menetelmät pohjautuvat prosessien fysikaalis-kemiallisten ilmiöiden mallintamiseen. Mallipohjaiset menetelmät jaetaan kvantitatiivisiin ja kvalitatiivisiin menetelmiin.

Prosessihistoriaan perustuvat menetelmät käyttävät prosessidataa mallintamiseen.

Historiatietoa hyödyntävät menetelmät jakautuvat myös kvantitatiivisiin ja kvalitatiivisiin menetelmiin.

Tässä diplomityössä on keskitytty kuvassa 1 punaisella merkittyihin menetelmiin, prosessihistoriaan perustuviin menetelmiin ja niistä tarkemmin asiantuntijajärjestelmiin, sumeaan logiikkaan, neuroverkkomenetelmiin ja näiden yhdistelmiin; hybridimenetelmiin.

Diagnostic Methods

Process Hi story Based Qualitative

Model-Based

Abstraction Hierarchy

Quantitative Causal

Models

Neural Networks,

• SOM / Statistical

Stru aural

Functional Expert

system s

• Fuzzy logic Digraphs

r Qualitative Fault Physics Trees

Statisti cal Classifiers

Kuva 1: Monitorointimenetelmien luokittelu (Ven katasubramanian et al., 2003a).

(15)

2.1. Kvantitatiiviset prosessi historiaan perustuvat monitorointimenetelmät

Pääkomponenttianalyysi (PC A), osittaisten neliösummien menetelmä (PLS) sekä kanoninen korrelaatioanalyysi (CCA) ja PCA- ja PLS-menetelmien muunnokset, joita ei ole esitetty kuvassa 1, perustuvat prosessihistoriassa havaittavien korrelaatiokerrointen hyödyntämiseen. Niiden avulla voidaan analysoida dataa, löytää trendejä ja havaita vikatiloja. Prosessidataa käsittelemällä saadaan selville tietoa, jonka avulla voidaan optimoida prosessiparametreja ja siten esim. parantaa tuotteen laatua.

Seuraavaksi tarkastellaan lyhyesti kvantitatiivisista prosessihistoriaan perustuvista menetelmistä pääkomponenttianalyysia, osittaisten neliösummien menetelmää, tilastollisia luokittelijoita ja neuroverkkoja.

2.1.1. Pääkomponenttianalyysi

Pääkomponenttianalyysin ideana on vähentää muuttujien määrää eli tiivistää dataa.

Menetelmä etenee kuvaamalla datan vaihtelua käyttäen lineaarisia kombinaatioita alkuperäisistä muuttujista kuvan 2a) mukaisesti. Pääkomponentit (PC), jotka määräävät uudet akselit valitaan kuvassa 2b) esitetyllä tavalla alkuperäisen datajoukon suurimman variaation suunnan mukaan. Pääkomponentit kääntävät datajoukkoa, mahdollistaen tiedon ryhmiin jaon kuvan 2c) mukaisesti. Tämän jälkeen tarkkaillaan alkuperäisiä datapisteitä pääkomponentteja vasten kuvan 2d) mukaisesti. Pääkomponenttien suunnan määräävät ominaisvektorit ja akseleiden pituuden määrää vastaavan pääkomponentin ominaisarvon neliöjuuri, joka on esitetty kuvassa 2e) (Nikus, 2005).

(16)

PCA m alli

PCI: Suurimman variaation suunta PC2: Suurimman variaation suunta

Virheellinen data (pun.) ilman erittelyä alkup.

akselein

Virheellinen data eritelty pc2 akselille

. malli

Kuva 2: PCA-menetelmä visualisoituna (Nikus, 2005).

Koska pääkomponenttianalyysin pyrkimys on vähentää muuttujien määrää, ei kaikkia uusia muuttujia oteta mukaan muunnokseen. Pääkomponenttien selitysosuudella voidaan määrittää, kuinka monta pääkomponenttia on tarpeellista ottaa malliin mukaan, jotta haluttu osuus datan vaihtelusta saataisiin selitettyä. Selitysosuuksien laskennan ja pääkomponenttien määrän määrittämisen jälkeen muodostetaan latausmatriisi (loading matrix) P. Tämän avulla datamatriisi X voidaan hajottaa pistematriisiin (score matrix) T = XP, latausmatriisiin P ja residuaalimatriisiin E yhtälön (1) mukaisesti.

X = TPT+E

(1)

Pääkomponenttien latausarvoja tutkimalla voidaan seurata, miten eri muuttujat vaikuttavat pääkomponentteihin (Jolliffe, 2002).

Prosessia voidaan monitoroida laskemalla jokaisen pääkomponentin tulosrajat.

Monitorointi-indeksejä on kaksi: ennustusvirheen neliö (Square Prediction Error, SPE) ja Hotelling T2 ja niiden toimintaperiaate on esitetty kuvassa 3. SPE-indeksi kuvaa miten hyvin PCA-malli kuvaa matriisia X. Hotelling T2 -indeksi kuvaa yksittäisen havaintovektorin yhdenmukaisuutta sen keskiarvoon tai standardiin. Mikäli havaintopisteen indeksi ylittää määritellyn raja-arvon, voidaan olettaa pisteen olevan virheellinen eli prosessissa on jokin häiriö (Jackson, 2003).

(17)

Näyt epis teen projisointi malli- tasolle

Hotellipa T

2

taso

Xl

Kura 3: Monitorointi-indeksien toiminta havainnollistettuna (Nikus, 2005).

PCA-menetelmiä on useita: dynaaminen PCA, rekursiivinen PCA, osittainen PCA ja moniskaalainen PCA (Venkatasubramanian et ai., 2003c).

2.1.2. Osittaisten neliösummien menetelmä

Osittaisten neliösummien menetelmä (Partial Least Squares tai Projection to Latent Squares, PLS) on myös kvantitatiivinen, datapohjainen PCA:n kaltainen monitorointimenetelmä, mutta PLS menetelmällä voidaan kuvata kahta datajoukkoa, eli syöte- ja ulostulomuuttujia. Menetelmää käytetään esimerkiksi ennustavien mallien teossa (Nikus, 2005).

Matemaattisesti PLS-menetelmä etenee seuraavasti: Datamatriisi X hajotetaan yhtälön (2) mukaiseen muotoon

X = TPT + E (2)

i

ja ulostulon datamatriisi У yhtälön (3) mukaiseen muotoon

Y = UQT +F , (3)

jossa E ja F ovat residuaalimatriiseja, U on pistematriisi

j2 on latausmatriisi.

Residuaalimatriisin F normi minimoidaan ja samalla muodostetaan malli, joka mahdollisimman hyvin kuvaa X:n ja Y:n välisen kovarianssin. Yksinkertainen ratkaisu tähän saadaan muodostamalla X- ja Y-matriisien pääkomponenttipisteiden välinen lineaarinen malli, joka matriisimuodossa on yhtälön (4) mukainen.

U = TB (4)

(18)

Sijoittamalla U yhtälön (3) U:n tilalle saadaan yhtälö (5).

Y = TBQT+F (5)

В valitaan niin, että F minimoituu. Käytännössä matriisit lasketaan iteratiivisesti käyttäen esimerkiksi NIPALS-algoritmia (non-linear iterative partial least squares), jolla saadaan Y:lle ennuste.

PLS-menetelmässä piste- ja latausarvot ovat PCA-menetelmän kaltaisia, mutta PLS- menetelmässä arvoja on käännetty, että ne paremmin ennustaisi Y:tä.

Pääkomponentteja kutsutaan PLS-menetelmässä latenttimuuttujiksi. Kun on määritetty, kuinka monta latenttimuuttujaa mallien tulisi sisältää, voidaan mallia käyttää Y:n ennustamiseen.

Latenttimuuttujien määrittäminen perustuu indekseihin kuten:

• X ja Y lohkojen varianssiin perustuva menetelmä

• Ristivalidointi (PRESS) ja ristivalidointivirheen neliöllinen keskiarvo (RMSECV)

• Kalibrointivirheen neliöllinen keskiarvo (RMSEC)

• Ennustevirheen neliöllinen keskiarvo (RMSEP)

PLS menetelmiä on useita: dynaaminen PLS, epälineaarinen PLS ja rekursiivinen PLS (Nikus, 2005).

2.1.3. Tilastolliset luokittelijat

Tilastollisen luokittelun käyttökohde on yleisesti vikadiagnostiikka. Vikadiagnostiikka on perimmiltään luokitteluongelma, joten on mahdollista käyttää perinteisiä tunnistusmenetelmiä luokitteluun. Käytettäessä tilastollisia luokittelijoita päätösfunktio määritetään eri näytteiden luokittelua varten. Tilastollisia luokittelijoita ovat Kavdir & Guyerrn (2004) mukaan esim. К-lähimmän naapurin luokittelija (k- nearest neighbor algorithm, к-NN), Bayesilainen luokittelija ja päättelypuuluokittelija.

К-lähimmän naapurin menetelmässä etsitään k lähintä naapuria luokittelevalle vektorille. Vektori määritellään siihen luokkaan, jossa on eniten naapureita.

Luokittelija on hyvin yksinkertainen ei-parametrinen menetelmä. Se vaatii kuitenkin riittävän suuren opetusaineiston. Oppimisen tyyppi on laiska oppiminen eli funktiota

(19)

approksimoidaan ainoastaan paikallisesti ja laskennallista osuutta viivytetään luokitteluun. Hyvä k:n valinta riippuu käytetystä datasta. Suuret k:n arvot vähentävät luokittelun kohinaa, mutta tekevät eri luokkien väliset rajat epäselviksi. Hyvä k:n arvo voidaan valita parametrioptimoinnilla, esim. ristivalidoinnilla.

Bayesilainen luokittelija edustaa perinteisestä optimaalista luokittelijaa. Menetelmää voidaan käyttää ainoastaan, kun luokat ovat Gaussin muodossa ja käytettävissä on jakaumainformaatio. Menetelmää voidaan käyttää esim. tietyn tapahtuman todennäköisyyden laskemiseen, jos siihen vaikuttavien olosuhteiden todennäköisyydet ovat tiedossa (Venkatsubramanian et ai. 2003c).

Päättelypuuluokittelija on hierarkkinen luokittelija, jonka toiminta perustuu datan osajoukkojen jatkuvaan lohkomiseen kahteen ala-osajoukkoon. Menetelmää käytetään visuaalisena ja analyyttisena päättelyn tukena (Venkatsubramanian et ai. 2003c).

Päättelypuu voidaan myös esittää vaikutusdiagrammina, jolloin huomioidaan asioiden ja tapahtumien väliset suhteet. Päättelypuuta käytetään, kun halutaan löytää todennäköisin menetelmä päämäärään pääsemiseksi tai vaihtoehtoisten todennäköisyyksien laskemiseksi.

2.1.4. Neuroverkot

Neuroverkot (Artificial Neural Networks, ANN) ovat peräisin 1940-luvulta, kun kehitettiin ensimmäinen neuronin malli, McCulloch-Pitt-neuroni luokittelutehtäviä varten. McCulloch-Pitt-neuronilla ei ollut oppimiskapasiteettia. 60-luvulla kehitettiin perceptron-neuroverkko, joka oli hyvin tehokas oppimiskapasiteettinsa ansiosta.

Modernit neuroverkot, kuten Hopfield-neuroverkko ja backpropagation-neuroverkko kehitettiin 80-luvulla. Neuroverkkoja on useantyyppisiä ja suosituimmat ovat monikerros-perceptron-neuroverkot (MLP), radiaalikantafunktioneuroverkot (RBF) ja Kohosen itseorganisoituvat kartat (SOM) (Karray ja de Silva, 2004).

Neuroverkkomenetelmissä prosessihistoriadatalla määritetään neuroverkon rakenne ja sen sisältämät parametrit; piilokerrosten määrä ja koko, sekä painokertoimet ja bias- arvot. Prosessidatalle muodostetaan syöte — ulostulorakenne, jonka perusteella data luokitellaan ennalta määrättyihin tai verkon opetuksessa muodostuviin luokkiin.

Neuroverkkojen suuri etu on niiden intuitiivinen visualisointi sekä menetelmästä riippuen, epälineaaristen yhteyksien löytäminen prosessimuuttujien välillä (Lennox et ai. 2001).

(20)

2.2. Kvalitatiiviset prosessihistoriaan perustuvat monitorointimenetelmät

Kaksi tärkeää menetelmää, jotka hyödyntävät kvalitatiivista prosessitietoa ovat asiantuntijärjestelmät ja trendianalyysi. Seuraavaksi niitä tarkastellaan lyhyesti.

2.2.1. Asiantuntijajärjestelmät

Asiantuntijajärjestelmä (Expert System, ES) on yleisesti järjestelmä, jota sovelletaan tietyn, usein kapean alueen asiantuntemuksen jäljittelyyn. 1960-luvulla kehitetyt asiantuntijajärjestelmät hyödyntävät kvalitatiivista, prosessihistoriaan perustuvaa tietoa ja sääntöjä, jotka tuntee tavallisesti alan asiantuntija.

Asiantuntijajärjestelmää kehittäessä päävaiheet ovat: tietämyksen haku, tietämyksen esitysmuodon valinta, tietämyksen ohjelmointi tietämyskantaan, päätelmien kehittäminen ja syöte-ulostuloparien havainnollistaminen (Venkatasubramanian, 2003c).

2.2.2. Kvalitatiivinen trendianalyysi

Kvalitatiivinen trendianalyysi (Qualitative Trend Analysis, QTA) on datapohjainen semikvantitatiivinen tekniikka, jota on käytetty prosessin monitorointiin ja vikadiagnostiikkaan sekä diagnoosiin. QTA soveltuu hyvin diagnostiikkatehtäviin, sillä menetelmä tuottaa paljon päätöksentekoa tukevaa informaatiota silloin, kun prosessin poikkeavuudet antavat erilaisia trendejä (Maurya et ai 2005).

QTA perustuu prosessihistorian trendianalyysiin ja menetelmän käytössä tunnistetaan kaksi vaihetta: trendien tunnistaminen mittauksissa ja trendien tulkitseminen vikaskenaarioissa. Käytetyt trendit tulee suodattaa hyvin ennen analyysia, sillä prosessidata sisältää tavallisesti paljon kohinaa, joka saattaa aiheuttaa vaihtelua prosessihistoriaan ja ennustettuihin trendeihin (Venkatasubramanian, 2003c).

Maurya et ai. (2005) kehittivät vikadiagnostiikalle PCA-QTA tekniikan suurimittaisia laitoksia varten. Tekniikassa QTA:ta sovelletaan enemmän pääkomponentteihin kuin mitattuun dataan. Arvioitiin, että laskennallinen kompleksisuus trendien erottamisessa vähenisi 40 %:lla.

(21)

2.3. Hybridimenetelmät

Käytännön ongelmat ovat hyvin monimutkaisia ja on todettu, että yksi ainoa menetelmä ei riitä monimutkaisuuden ratkaisemiseen. Tämän takia on syntynyt tarve hyödyntää kaikkia monitorointimenetelmiä yhdistämällä niitä. Tämä menetelmien yhtyminen on luonut hybridimenetelmäkäsitteen (Mirzai et ai., 2000).

Hybridimalleissa esim. monimuuttujamenetelmät ja neuroverkot yhdistetään;

epälineaarinen pääkomponenttianalyysi (NLPCA), epälineaarinen osittaisten neliösummien menetelmä (NLPLS) ja epälineaarinen kanoninen korrelaatioanalyysi (NLCCA) (Nikus, 2005).

Suunnitellut järjestelmät ovat monessa todellisuuden ongelmassa niin monimutkaisia, että voi olla tarpeen jakaa ongelma pienempiin osiin, jotta voidaan käyttää eri tekniikoita ongelman eri osiin. Sumeaa logiikkaa, todennäköisyysteoriaa, neuroverkkoja ja geneettisiä algoritmeja käytetään yhdessä tiedon esitykseen, päättelyyn ja itse päätöksentekoprosessiin.

2.4. Älykkäät monitorointimenetelmät

Älykkäällä järjestelmällä tarkoitetaan Karray ja de Silvan (2004) mukaan järjestelmää, jolla on kyky hankkia ja soveltaa tietoa älykkäällä tavalla. Monitorointimenetelmistä asiantuntijajärjestelmiä, sumeaan logiikkaan perustuvia menetelmiä ja neuroverkkopohjaisia menetelmiä kutsutaan tässä työssä älykkäiksi monitorointimenetelmiksi. Seuraavaksi tarkastellaan lähemmin niiden rakennetta ja toimintaa.

2.4.1. Asiantuntijajärjestelmät

Asiantuntijajärjestelmä, jota kutsutaan myös tietämyspohjaiseksi (knowledge based) systeemiksi, on tietokoneohjelma, joka tietämyksensä ja päättelykykynsä avulla pystyy ratkomaan ongelmia (Mirzai et ai., 2000). Tekoälyn tutkijat kehittivät tämän tyyppisiä ohjelmia 1960- ja 1970-luvulla ja ne muuttuivat kaupallisiksi myöhemmin 1980-luvulla.

Yleisin esimerkki asiantuntijajärjestelmästä on eri säännöistä koostuva ohjelma, joka analysoi käyttäjän antamaa tiettyyn ongelmaan liittyvää tietoa ja suosittelee käyttäjää tekemään valikoituja päätöksiä. Järjestelmä käyttää päättelykykyä johtopäätösten muodostamiseen. Kuvassa 4 on esitetty asiantuntijajärjestelmän perusosat:

tietämyskanta, tietokanta, päättelykone, käyttöliittymä ja järjestelmän käyttäjät.

(22)

Asiantuntija- tietämyskanta

Käyttäj ät Asiantuntijat Kehittäjät Päättelykone

Tietokanta

Kuva 4: Asiantuntijajärjestelmän komponentit (Karray ja de Silva, 2004).

Tietämyskanta sisältää ratkaistavaan ongelmaan liittyvät asiat, käsitykset ja heuristiset jos-niin-tyyppiset tuotantosäännöt, esim.: jos x ja y ja z niin vähennä a. Asiat ovat yleisesti hyväksyttyä perustietoa sovellusalueesta (Michie, 1984).

Päättelykone on ohjausmekanismi, jonka avulla tietämyskantaa käytetään. Päättelykone ei sisällä sovelluskohtaista tietämystä, joka on keskitetty tietämyskantaan. Tämän vuoksi samaa päättelykonetta voidaan käyttää eri sovelluskohteisiin tietämyskantaa vaihtamalla ja tietämyskantaa voidaan päivittää muuttamatta päättelykonetta. Päättely tapahtuu jos-niin-sääntöjen avulla. Niin-osan tietoa voivat käyttää vain ne säännöt, jotka sisältävät vastaavaa tietoa jos-osassa (Hyvönen, 1985).

Tietokannassa säilytetään tietoa ongelmanratkaisun tilasta eri vaiheissa, edellisistä päätelmistä ja syötetiedosta (Hyvönen, 1985).

Käyttöliittymän luonne ja laatu riippuvat suuresti sovellutuksesta ja systeemin käyttö­

jä toimintatavasta (Hyvönen, 1985).

Asiantuntijajärjestelmää sovelletaan usein kohteisiin, joissa ongelma pystytään ilmaisemaan eksplisiittisesti (esim. säännöin) ja parametrit ovat symbolisia, eikä numeerisia (Mirzai et ah, 2000).

2.4.2. Sumea logiikka

Sumea logiikka on tapa esittää ihmisen tietoa approksimatiivisesti. Sumea logiikka ja sillä rakennetut järjestelmät voivat olla hyvinkin lähellä perinteistä asiantuntijajärjestelmää riippuen siitä, miten täsmällisiä käytetyt säännöt ovat. Tämä ajattelutapa kehittyi 60-luvun puolivälissä perinteisen Boolen logiikan laajennuksena.

Perinteisessä Boolen logiikassa on vain kaksi tilaa, oikein tai väärin, 1 tai 0. Sumea logiikka on pyrkinyt ihmismäiseen ajattelutapaan ja tämä tarkoittaa lähinnä moniarvologiikkaa. Niskanen (2003) kuvaa sumean logiikan korvaavan jäykän kaksiarvoisen logiikan ja monimutkaiset mallit yksinkertaisilla, ihmisen todellista päättelyä muistuttavilla kielellisillä malleilla. Esim. ”jos vauhti on hidas ja kohde on

(23)

kaukana, niin lisää vauhtia kohtalaisesti. Tässä hidas, kaukana ja kohtalaisesti ovat sumeita kuvauksia.

Sumean logiikan tietopankki koostuu sumeiden kuvausten jos-niin säännöistä.

Perinteisen logiikan tapaan sumea logiikka perustuu joukkoteoriaan, sumean joukon teoriaan. Sumea joukko esitetään jäsenyysfunktiolla, joka antaa elementille jäsenyysasteen 1 ja 0 välillä. Tietyn elementin arvo saa määrityksensä perusteella jäsenyysasteen (Karray ja de Silva, 2004), joka kertoo missä määrin elementti kuuluu sumeaan joukkoon. Näin tietty elementti voi yhtäaikaisesti sekä kuulua joukkoon, että olla joukon ulkopuolella. Tämä ei ole mahdollista perinteisessä logiikassa.

2.4.2.1. Sumea joukko ja päättely

Konventionaalisessa joukko-opissa elementit joko kuuluvat tai eivät kuulu annettuun joukkoon. Sumeassa joukko-opissa elementit voivat kuulua johonkin joukkoon myös osittain. Sumean joukon kuvaa jäsenyysfunktio, esim. kuvassa 5 esitetty jäsenyysfunktio (Nikus, 2005).

[xx(xj = 1 -x2, kun -1 < x 5 1 px(xj = 0, muualla

x

Kuva 5: Sumea joukko — jäsenyysfunktio (Nikus, 2005).

Sumean joukon voi määritellä seuraavalla tavalla (Karray ja de Silva, 2004):

• Jos A on sumea joukko tilassa X, niin рл(х): X —>[0,1] on A:n jäsenyysfunktio.

Sumean säännön voi esittää jäsenyysfunktioiden yhdistelmänä seuraavasti:

Jos Al ja B1 niin Cl Jos A2 ja B2 niin C2.

Yllä olevat jäsenyysfunktiot on havainnollistettu kuvassa 6.

(24)

Kuva 6: Sumea päättely havainnollistettuna (Karray ja de Silva, 2004).

Yleinen päättelyprosessi koostuu kolmesta tai neljästä vaiheesta (Kantrowitz et. ai.

2006, Karray ja de Silva, 2004):

• Sumeuttamisvaiheessa määritetään jokaisen muuttujan jäsenyysfunktion aste.

Tietämyskanta K esitetään sumeassa muodossa jos-niin säännöin ja sumein kuvaajin. Tieto D esikäsitellään kaavan (6) mukaisesti sumeuttamisella

Fd = FP(D) (6)

• Päättelyvaiheessa lasketaan jokaisen säännön totuusaste ja lisätään sääntö päätelmään. Päätellään missä määrin kukin sääntö tulee vaikuttamaan koko päättelyn lopputulokseen. Näin jokaiselle ulostulomuuttujalle, jokaista sääntöä kohti määritetään osajoukko. Sumean tietämyskannan Fk päättely Fi saadaan sumealla päättelyllä kaavan (7) mukaisesti

F,=Fk°Fd (7)

• Kompositiovaiheessa yhdistetään kaikki sumeat osajoukot jokaista ulostulomuuttujaa kohti. Kompositio-operaattori ° voidaan ilmaista kaavan (8) mukaisesti

Pi = sup min (yiK ,/ty), (8)

x

jossa sup tarkoittaa supremum-operaatiota, joka antaa funktion maksimin min tarkoittaa yhdiste-operaatiota, joka vastaa perinteisen logiikan myös-operaatiota (konjunktio)

(25)

Цк on sumeat säännöt sisältävän tietämyskannan moniulotteinen jäsenyysfunktio

|Ud on sumeutetun datan jäsenyysfunktio (ti on sumean päättelyn jäsenyysfunktio x G X on tietokannassa käytettyjä muuttujia.

• Täsmällistämisvaihe on vaihtoehtoinen. Tarpeen vaatiessa sumea ulostulojoukko muutetaan kenttäarvoksi.

Vaiheet 2 ja 3 tunnetaan kompositio päättelysääntönä (compositional rule of inference, CRI).

Laitteen älykästä toimintaa varten tarvitaan usein prosessiarvo c, joka on määritettävissä centroid-menetelmän avulla kaavan (9) mukaisesti:

(9)

c =

jossa c on päättelystä I riippumaton muuttuja ja S on päättelyn jäsenyysfunktion tukijoukko (tai kyseessä oleva alue).

Sumeaa logiikkaa käytetään usein prosessien ja laitteiden suorassa säädössä. Tässä tapauksessa sumean järjestelmän päättelyt muodostavat prosessin säätöön vaadittavat syötteet. Näihin päätelmiin päädytään käyttäen prosessin mittauksia sumean järjestelmän syötteinä.

2.4.3. Neuroverkot

Neuroverkot ovat laskennallisia mallintamisen työkaluja, joita käytetään laajasti monella tieteen eri alalla kompleksisten tosimaailman ongelmien mallintamiseen.

Neuroverkot havaitsevat kuvioita ja yhteyksiä suurissa määrissä dataa käyttämällä laitteistoja ja ohjelmistoja, jotka simuloivat ihmisen aivojen prosessointikuvioita.

Neurolaskennan periaatteet tunnettiin jo 1940-luvulla, mutta se sai lopullisen läpimurtonsa vasta 1980-luvun puolivälin jälkeen jäätyään ennen sitä tietotekniikan muun kehityksen jalkoihin. (Koikkalainen, 1994).

(26)

2.4.3.1. Neuroverkon piirteitä

Neuroverkko koostuu yksinkertaisista toisiinsa kytketyistä laskentaelementeistä eli neuroneista, joiden toiminta perustuu löyhästi biologisiin neuroneihin. Verkon prosessointikyky on tallennettu neuronien välisten kytkentöjen vahvuuksiin ja painokertoimiin, jotka on saavutettu opettamalla esimerkein (Gurney, 1997).

Toisin kuin tietokoneet, joita on ohjelmoitu ratkomaan ongelmia käyttäen peräkkäisiä algoritmeja, ihmisen aivot käyttävät massiivisen verkoston rinnakkaisia sekä hajautettuja laskennallisia elementtejä, joita kutsumme neuroneiksi. Tämän valtavan verkon ja yhteyksien ansiosta ihminen omaa hyvin tehokkaan oppimiskapasiteetin (Karray ja de Silva, 2004). Tätä verkostoa jäljentämällä neuronit järjestetään neuroverkoissa tavallisesti kerroksiin ja nämä on yhdistetty toisiinsa painotetuin syötesignaalein esim. kuvan 7 mukaisesti.

a.

► У»

► 72

► У/

Piilokerros

Kuva 7: Kuvaus tyypillisestä kaksikerroksisesta eteenpäinkytketystä (yksisuuntaisesta) neuroverkosta (Leuäs et ai, 2002).

Kuvan 7 neuroverkolla on kaksi kerrosta säädettäviä painokertoimia ja se on siten kaksikerroksinen neuroverkko. Arvot Xk ovat neuroverkon syötteet ja j, sen ulostulot.

Funktio F(.) on epälineaarinen aktivointifunktio (kuvaus sivulla 16) neuroverkon piilokerroksessa. Piilokerroksen painokertoimet ovat vjk ja ulostulokerroksen

(27)

painokertoimet ovat щ. Piilokerroksen kynnysarvot ovat B,y ja ulostulokerroksen kynnysarvot ovat B„y. Kynnysarvot B,y siirtävät aktivointifunktiota neuronilla j, piilokerroksen painokertoimet vjk skaalaavat funktion. Piilokerrosneuronien lukumäärä on L. Matemaattisesti neuroverkon voi kuvata yhtälön (10) mukaisesti (Lewis et ai., 2002):

L ' n ^

W-Fij ZV7*X* + + Bwi

7=1 U=i )

(10)

Kuvassa 8 esitetty McCulloch-Pitt neuroni on yksi ensimmäisistä neuronin malleista.

Tässä neuronissa syötteet x* kerrotaan painokertoimilla Vj ja tulosta verrataan ennakoituun syötteeseen В (bias-arvo). Neuronin ulostulo on yhtälön (11) mukainen:

y = F

Z'

V-=i

-B (11)

Kuva 8: Neuronin toiminta. Tämä rakenne on nimeltään McCulloch-Pitts neuroni, ensimmäisiä mallinnettuja neuroneja, jossa aktivointifunktion ulostulo on 1 tai 0 riippuen siitä miten suuri В on.

Tavallisesti В ilmaistaan syötteenä xo—1, jonka painokerroin on vo— -B, jolloin yhtälössä (9) В jää pois.

(Karraj ja de Silva, 2004).

Neuroverkkojen laskennallinen teho perustuu aktivointi funktioiden F(.) epälineaarisuuteen ja siihen, että painokertoimet И7 ja И pystytään modifioimaan tai virittämään oppimisprosessilla.

(28)

Tyypillisiä aktivointifunktioita ovat esim. sigmoidi, signumi-funktio, askel-funktio tai lineaarinen yhteys. Matemaattisesti esitettyjä aktivointifunktioita sekä niiden profiilit on esitetty kuvassa 9 (Lewis et ah, 2002).

augmented ratio of squares linear threshold

symmetric hard limit hard limit

radial basis function (RBF) xtor-

sigmoid (logistic curve)

. Gaussian with variance v

Kuva 9: Tyypillisiä aktivointifunktioita (Lewis et al, 2002).

2.4.3.2. Neuroverkon rakenne

Verkon rakenne jaetaan Karray ja de Silvan (2004) mukaan kahteen tunnettuun arkkitehtuuriin: eteenpäinkytketty ja takaisinkytketty verkko. Rakenne valitaan ongelmatyypin perusteella.

Eteenpäinkytketyissä verkoissa informaatio siirtyy syötekerroksesta lähtökerrokseen päin. Kytkennät kerrosten neuronien välillä voivat olla kaikkien neuronien välillä tai vain joidenkin neuronien välillä, jolloin verkkoa kutsutaan täysin- tai osittainkytketyksi verkoksi. Kuvissa 10, 11 ja 12 on esitetty eteenpäinkytketyn neuroverkon rakenne.

(29)

Syöte

Ulostulo

Kuva 10: Monisyöte,yksi lähtö, ei piilokerroksia (Karray ja de Silva, 2004).

Ulostulo

Kuva 11: Monisyöte, yksi ulostulo, yksi piilokerros (Karray ja de Silva, 2004).

Ulostulo

Ulostulo

Kuva 12: Moni-syöte, moni-ulostulo, yksi piilokerros

(Karray ja de Silva, 2004). Kuva 13: Tyypillinen takaisinkytketty neuroverkko (Karray ja de Silva, 2004).

Takaisinkytketyissä verkoissa on nimensä mukaan vähintään yksi neuroni lähtökerroksesta kytkettynä tulokerrokseen, kuten kuvasta 13 ilmenee. Tämä rakenne sallii informaation varastoinnin dynaamisen tilan kautta ulostuloon ja antaa siten verkolle eräänlaisen muistin. Informaatio siirretään ulostuloista syötteisiin, jolloin verkon ulostulo riippuu sekä syötteestä, että edellisen kerroksen ulostulosta.

Monet tunnetut neuroverkot on rakennettu perustuen takaisinkytkettyyn rakenteeseen.

Näitä ovat esim. Hopfield-verkko ja TDNN neuroverkot (Time Delayed Neural Networks).

2.4.3.3. Neuroverkon opetus algoritmeja

McCulloch-Pitt neuronilla on omat rajoituksensa, etenkin oppimiskyky on puutteellinen, sillä mallin rakenne perustuu kiinteisiin painokertoimiin ja kynnysarvoihin. Kuvassa 14 esitetty Rosenblattin malli, perceptron kehitettiin sekä tämän puutteen poistamiseksi, että kuvioiden tunnistamiseksi lineaarisesti erotettavissa olevissa joukoissa. Monikerroksisia laajennuksia perceptron-neuronista kutsutaan MLP-verkoiksi (Multi Layer Perceptron), joissa kerrosten väliset signaalimuutokset ovat epälineaarisia. Muita neuronin malleja ovat ADALINE (Adaptive Linear Neuron) ja MADALINE (Multiple ADALINE) (Karray ja de Silva, 2004).

(30)

Vakio painokertoimien

kerros Svöte-

kuvio

Ennakko

Todellinen ulostulo

Aktivointi- funktio

Oppimis­

in ekanismi (Hebbin sääntö)

Kohde- ulostulo

Kuva 14: Rosenblattin malli, perceptron. Kolme hierarkkista tasoa; syöte, piirteiden havaitsin, ulostulo. Hebbin sääntö perustuu toistamisen vahvistamiseen, mikä ei takaa oppimisen suoritukseen (Karrayja de Silva, 2004).

Kuvissa 11-13 kuvatut verkot ovat monikerroksisia verkkoja, joissa jokaisen verkon ulostulo on syötteiden ja painokertoimien funktio. Verkolle pystytään opettamaan haluttu ulostulo säätelemällä painokertoimia. Mirzai et ai. (2000) kutsuvat tätä oppimisprosessiksi. Tunnetuin opetusalgoritmi on nimeltään backpropagation- algoritmi, joka perustuu virhefunktion minimointiin koko havaintoaineistossa (Koikkalainen, 1994).

Karray ja de Silva (2004) määrittelevät kolme tunnettua ja useimmiten neuroverkkojen jakoperusteena käytettyä opetusalgoritmia: ohjattu oppiminen, ohjaamaton oppiminen ja vahvistettu oppiminen. Ohjatussa opetuksessa opetusdatan muodostaa joukko syöte-ulostulopareja, jolloin oppimisen tuloksena syntyy laskentakaava, joka kertoo miten tietyntyyppiseen syötteeseen tulee vastata. Laskentakaava on yleistävä, joka tarkoittaa, että neuroverkko vastaa järkevästi myös sellaisille syötteille, joita ei löydy opetusaineistosta.

Ohjatussa opetuksessa verkon tuottamaa ulostuloa verrataan kuvan 15 mukaisesti ennalta tiedossa olevaan haluttuun ulostuloon. Oppimissääntö käyttää erotusta korjaamaan painokertoimia, jotta ulostulo vastaisi paremmin haluttua ulostuloa.

(31)

Esimerkkeinä yleisimmistä ohjattuun oppimiseen perustuvista neuroverkoista ovat MLP ja RBF (radial basis function).

Ohjaamaton paino- kertoimien päivitys Ohjattu painokertoimien

päivitys

Kumulatiivinen

Ulos-

Kuva 15: Skemaattinen esitys ohjatusta opetuksesta (Karraj Kuva 16: Skemaattinen esitys

ja de Silva, 2004). ohjaamattomasta opetuksesta (Karraj ja de

Silva, 2004).

Vahvistus

signaali Vahvistettu paino­

kertoimien päivitys

Kuva 17: Skemaattinen esitys vahvistetusta opetuksesta (Karraj ja de Silva, 2004).

Ohjaamattomassa opetuksessa riittää pelkkä syöte. Kuvassa 16 esitetyssä ohjaamattomassa opetuksessa harjoitusdataa syötetään verkolle ja verkon tehtävä on löytää yhtäläisyyksiä tulojoukosta ja organisoida data klustereihin tai kategorioihin.

Tyypillinen ohjaamattomaan oppimiseen perustuva neuroverkko on SOM (Self- Organizing Map).

Toisin kuin ohjattu opetus kuvassa 17 esitetty vahvistettu opetus ei saa tietoa kohdeulostulosta, kun verkolle syötetään dataa. Verkon painokertoimia muutetaan ympäristön antaman palautteen mukaan. Jos palaute vastaa kriteerejä, painokertoimet vahvistetaan, jos taas palaute ei vastaa kriteerejä, niitä heikennetään (Laine, 2000).

Tunnettu backpropagation-opetusalgoritmi on monipuolinen monikerroksisten neuroverkkojen opetusalgoritmi. Tällä menetelmällä opetettavat neuroverkot ovat eteenpäinkytkettyjä monikerroksisia neuroverkkoja kuvan 7 neuroverkon tapaan.

(32)

Backpropagation-opetusalgoritmi perustuu gradienttilaskentatekniikkaan, jossa minimoidaan verkon kumulatiivinen virhe Ec, joka on verkon neliöllinen virhesumma (Euklidinen normi). Algoritmi on suunniteltu siten, että se päivittää iteratiivisesti painokertoimien arvot kumulatiivisen virheen laskevan gradientin suuntaan. Alussa verkolle syötetään opetusdataa, josta takaisinkytkennän (virhesignaali) avulla lasketaan painokertoimien uudet arvot (Karray ja de Silva, 2004).

Backpropagation-algoritmi etenee seuraavasti: Määritellään verkon kumulatiivinen virhe Ec yhtälön (12) mukaisesti, jonka minimointi asetetaan optimointiongelmaksi.

£c=¿£(*) = ±¿ ¿[/,.(*)-0/(*)]2 , (12) i=i ¿ t=i t=i

jossa i on i:s neuroni <^:sta neuronista

t(k) on £:s tavoitevektori opetusdatasta o(k) on verkon vastaava ulostulovektori n on opetusdatan havaintojen määrä.

Offline-opetuksessa optimointiongelmaksi muodostuu yhtälö (13), jota vastaava yleistetty delta-sääntö on esitetty yhtälössä (14)

min Ec = min VV [/,(£)-o,(Ä:)]2 , (13)

w w i=i i=i

jossa w on vektori, jossa on painokertoimet.

Aw(/) =

—T) —jjr

, (H)

dw(l)

jossa ----ÖE— on virheen Е,- muutos vektorin w<') suhteen joka vastaa vektorin wW dw(,)

sisältämät kaikki kerrosten (l) ja (1-1) väliset painokertoimet.

i) on oppimiskerroin, joka tavallisesti on luku välillä 0... 1.

Au>(1) on vektoreiden tvOfk+l) ja rv('1(k) välinen erotus, tarkoittaen kerroksen (l) neuronien painokertoimia jälkeen ja ennen opetuspisteen k esittämistä verkolle. at¡/0 tarkoittaa kerroksen (1-1) neuronin ja kerroksen (l) neuronin / välisen painokertoimen muutosta, o,/'1) tarkoittaa kerroksen (1-1) neuronin j ulostuloa ja signaali tot/1), kaikkien niiden signaalien summaa, jotka tulevat neuronille / kerroksessa (l) edellisestä kerroksesta (1-1).

(33)

Differentiaaliyhtälöiden ketjutussääntöä käyttäen saadaan painokertoimen muutokseksi yhtälön (15) mukaisesti.

Д w(/) = Aw,y1 = -77

'se/" doj" ' 'dlot?'

dtot)l) . ¿4(,) _ (15)

Kun kerros (l) on ulostulokerros (L), yhtälö (16) tulee muotoon

(16)

jossa f'(tot¡L) =dfjtot") dtot

Jos ilmaistaan virhesignaalia neuronilta i ulostulokerrokselle yhtälöllä (17), saadaan ulostulokerroksen L painokertoimen päivitykselle arvo yhtälöstä (18).

07)

Д (18)

Jos/on sigmoidi-funktio, virhesignaaliksi tulee yhtälön (19) lauseke.

(IS')

Kun virhettä lasketaan taaksepäin neuroverkossa ulostulokerroksesta lähtien, saadaan painokertoimen muutokseksi (20), kun kerros (1) on piilotettu kerros (1-<L).

A= -TjSj^Oj 11, (20)

jossa erosuure Az(,) lasketaan funktiona ulostuloa edeltävistä kerroksista yhtälön (21) mukaisesti. Sigmoidi-funktion ollessa kyseessä yhtälö tulee muotoon (22).

«?/'> =/'*/<'> Xd,('+lv_/+i)

p=\ Pi *

p=>

(21)

(22)

jossa «/ on kerroksen (1+1) neuronien kokonaismäärä ja p on kerroksen (1+1) neuroni.

Algoritmi konvergoi, kun neuroverkon painokertoimien arvot saavuttavat vakioarvonsa. Painokertoimien arvot käydään läpi jokaisella opetuskierroksella lopusta

(34)

alkuun päin, josta algoritmi on saanut nimensä. Suuret oppimiskertoimen 77 arvot saattavat nopeuttaa konvergoitumista, mutta tämä saattaa johtaa vaihteluun. (Karray ja de Silva, 2004).

Backpropagation algoritmi perusmuodossaan on varsin hidas. Syynä on kohdefunktion luonne, joka minimoituu huonosti gradienttityyppisellä opetuksella. Backpropagation algoritmille on kehitetty useita nopeutuksia, joista eniten käytetty on Levenberg- Marquardt-algoritmi (Laine, 2000)

Levenberg-Marquardt-algoritmin avulla saadaan numeerinen ratkaisu funktion, tavallisesti epälineaarisen funktion, matemaattiseen minimointiongelmaan. Algoritmi on iteratiivinen ja interpoloi Gauss-Newton-menetelmän ja gradient descent- menetelmän välillä.

Algoritmi etenee seuraavasti: Dataparille (tj, jJ) optimoidaan mallikäyrän f(t\p) parametrit p niin, että yhtälön (23) neliöiden summien hajonta on minimaalinen.

%) = Х[)'гА'И2 (23)

i=i

Minimointi aloitetaan antamalla parametrivektorille p alkuarvo. Jokaisessa iteroinnissa p korvataan uudella arvauksella p + q. q:n määrittämiseksi funktiot f (p + q)

approksimoidaan niiden linearisoinnilla yhtälön (24) mukaisesti

f(p+q)~ f(q)+Jq, (24)

jossa J on yin Jacobin matriisi y:ssä.

Neliöiden summien J minimissä V? .f = 0. Derivoimalla yhtälön (24) oikeanpuoleinen neliö ja asettamalla se nollaksi saadaan yhtälö (25)

(JTJ)q=-JTf, (25)

josta q voidaan ratkaista.

Algoritmin ideana on korvata yhtälö (25) vaimennetulla yhtälön (26) mukaisella versiolla

(.JTJ + ÄI)q = -JT f, (26)

jossa I on yksikkömatriisi ja Å on vaimennuskerroin, jota säädetään jokaisessa iteroinnissa. Jos viimeisen parametrin askelpituus tai neliöiden summa vektorille p on pienempi kuin ennalta määrätty raja-arvo, iterointi päättyy ja vastauksena on vektori p:n arvo (Gill ja Murray, 1974).

(35)

Itseorganisoituva kartta on toinen yleisesti käytössä oleva neuroverkkoalgoritmi.

Tämän ohjaamattoman opetusalgoritmin käyttökohde on enimmäkseen data-analyysin kaltaiset tehtävät, jolloin kartan avulla pyritään ymmärtämään tai visualisoimaan moniulotteista reaalimaailman dataa (Laine, 2000). Kuvassa 18 esitetty suorakulmainen rakenne on yleisimmin käytetty.

Ulostuloja

Voittaneen yksikön lähialue

Kuva 18: Skemaattinen esitys tyypillisestä itseorganisoituvasta kartasta (Karray ja de Silva, 2004).

SOM-neuroverkkojen oppiminen perustuu kilpailevaan oppimiseen, jolloin syötedata klusteroidaan ryhmiin, joilla on samanlaisia ominaisuuksia (Karray ja de Silva, 2004).

Opetusalgoritmi etenee seuraavasti (Simula et ah, 1999):

1. Valitaan vektori x satunnaisesti syötejoukosta.

2. Lasketaan syötevektorin x ja kaikkien mallivektoreiden väliset etäisyydet.

3. Voittajaneuroni (Best-Matching Unit, BMU) on se mallivektori c, jonka etäisyys syötevektoriin on lyhin.

4. Siirretään voittajaneuronia c ja sitä lähellä olevia mallivektoreita kohti syötevektoria x.

(36)

Kuva 19 havainnollistaa voittajaneuronin ja sitä lähellä olevien mallivektoreiden siirtyminen kohti syötevektoria.

Kuva 19: BM\J:n löytymisen jälkeen mallivektorit ovatpäivittyneet (Alhoniemi et ai, 1999).

Itseorganisoituva kartta soveltuu hyvin prosessin analysointiin, jonka eri vaiheet on esitetty kuvassa 20.

Mittausvektori (ominaisuusvektori)

mittaukset

© ©

Data-

puskuri Kartan koulutus ia nimeäminen

Prosessi käsittely

Sisään

Itseorganisoituva kartta

Kuva 20: SOM:in käytön eri vaiheet prosessin analysoinnissa. 1) datan käsittely, 2) kartan opettaminen, 3) validointija 4) visualisointi (.Alhoniemi et ai. 1999)

SOM:in avulla voidaan moniulotteisesta datasta tuottaa havainnollisia visualisointeja.

(37)

2.5. Hybridiin ene t elm ät

Kaikki monitorointimenetelmien yhdistelmät ovat hybridimenetelmiä, mutta seuraavaksi keskitytään vain neuro-sumeisiin järjestelmiin.

Neuro-sumeat järjestelmät muodostavat kiinnostavan yhdistelmän menetelmiä. Ne yhdistävät sekä neuroverkkojen että sumean logiikan ominaisuuksia ja hyödyntävät näin molempien menetelmien hyviä puolia. Sumeaan logiikkaan perustuvan järjestelmän ongelma on joustavuuden puute, mutta puute voidaan poistaa, kun se yhdistetään neuroverkkojen oppimiskyvyn kanssa (Pepijin et ah, 2004).

Goonatilake ja Khebbal (1995) määrittelevät viisi eri neurosumean järjestelmän luokkaa:

• Luokka 1: Järjestelmällä on sama rakenne kuin klassisella neuroverkolla, mutta siinä on erilaisia laskennallisia elementtejä. Numeerisen neuronin sijaan neuroverkossa käytetään sumeita neuroneja.

• Luokka 2: Mukautuva sumea järjestelmä, joka käyttää neuroverkkoa sumean järjestelmän opetukseen päivittääkseen sumeat säännöt tai jäsenyysfunktiot.

• Luokka 3: Klassinen neuroverkko, jossa oppiminen tapahtuu sumean järjestelmän funktioihin käyttäen sumeaa menetelmää neuronien päivitykseen.

• Luokka 4: Järjestelmät koostuvat itsenäisesti toimivista neuroverkkomoduuleista ja sumeista järjestelmistä.

• Luokka 5: Yhdistelmä perinteisistä järjestelmistä tai yllämainituista.

Nauck et ai. (1997) luokittelevat edelleen neurosumeat järjestelmät kolmeen luokkaan rakenteen ja toiminnallisuuden perusteella ja ne ovat: yhteistoiminnalliset neuro­

sumeat järjestelmät, neuroverkkopainotteiset sumeat päättelyjärjestelmät ja hybridiset neuroverkkoon perustuvat järjestelmät.

2.5.1. Yhteistoiminnalliset neuro-sumeat järjestelmät

Yhteistoiminnallisten neuro-sumeiden järjestelmien idea on optimoida ja säätää sumeaa päättelyrakennetta tiettyjä oppimismekanismeja eli neuroverkkoja käyttäen.

Sumean järjestelmän mukaan Nauck et ai. (1997) luokittelevat yhteistoiminnalliset neurosumeat järjestelmät neljään tyyppiin: Kuvassa 21 on esitetty tyyppi 1, jossa neuroverkon ulostulo antaa sumean järjestelmän jäsenyysfunktiot. Kuvassa 22 on esitetty tyyppi 2, jossa neuroverkko oppii säännöt ennen sumean järjestelmän

(38)

implementointia. Kuvassa 23 on esitetty neuro-sumean järjestelmän tyyppi 3, jossa neuroverkko jatkuvasti päivittää sumean järjestelmän rakennetta. Kuvassa 24 on esitetty tyyppi 4, jossa oppimismekanismi asettaa sumean järjestelmän säännöt tärkeysjärjestykseen (Karray ja de Silva, 2004).

Kuva 21: Yhteistoiminnallinen neuro-sumea järjestelmä, Kuva 22: Yhteistoiminnallinen neuro-sumea tyyppi 1. Sumean järjestelmän jäsenyysfunktiot järjestelmä, tyyppi 2. Datan klusteroinnilla määritetään opetusdatalla (Karray ja de Silva, 2004). neuroverkko erottaa sumeat säännöt opetusdatasta

(Karray ja de Silva, 2004).

Kuva 23: Yhteistoiminnallinen neuro-sumea järjestelmä Kuva 24: Yhteistoiminnallinen neuro-sumea tyyppi 3. Neuroverkkoa käytetään sumean järjestelmän järjestelmä tyyppi 4. Oppiminen päättää jokaisen säännölliseen päivittämiseen (Karray ja de Silva, 2004). säännön tärkeyden sumeassa järjestelmässä (Karray

ja de Silva, 2004).

Adeli-Hung -algoritmi on yksi neuroverkkopoh jäinen algoritmi jäsenyys funktioiden muodostamiselle. Adeli ja Hung esittivät, että neuroverkon käyttö jäsenyysfunktion muodostamisessa tapahtuu kahdessa vaiheessa: klusterointi ja sumeuttaminen.

Ensimmäisessä vaiheessa data luokitellaan neuroverkon avulla. Toisessa vaiheessa määritetään sumeat jäsenyysarvot jokaiselle opetuskierrokselle (Karray ja de Silva, 2004).

2.5.2. Neuro verkkopohjainen päättely

Jos muuttujien määrä sumeassa järjestelmässä on enemmän kuin neljä, voi sumeiden sääntöjen muodostaminen Jang et al.:in (1997) mukaan muuttua vaikeaksi, sillä jäsenyysfunktioiden määrä kasvaa nopeasti ja logiikan muodostaminen tulee raskaaksi.

Tämän vuoksi on haettu menetelmää, joka helpottaisi sääntöjen muodostamista.

Takagi ja Hayashi (1991) esittivät kuvassa 25 kuvattua menetelmää, jossa generoimalla

(39)

jäsenyysfunktioita tunnistetaan sumean säännön jos-osa. Seuraavaksi neuroverkkoa opetetaan päättelyn niin-osan mukaan. Menetelmää käytetään järjestelmissä, joissa muu tekniikka, kuin heuristinen päättely on tarpeen jäsenyysfunktioiden muotoilemiseen tai joissa päättelyn täytyy mukautua ympäristön mukaan (Karray ja de Silva, 2004).

Я, я2

Я3 Я,

Kuva 25: a) Päättelysäännöt jaetaan, b) Säännön jos-osan tunnistaminen (päättää jäsenyysfunktion). c) Säännön niin-osan tunnistaminen (Karray ja de Silva, 2004).

2.5.3. Hybridi neuro-sumea järjestelmä

Hybridi neuro-sumeassa järjestelmässä neuroverkko ja sumean logiikan järjestelmä toimivat rinnakkain, jolloin jokaista sumean järjestelmän moduulia vastaa neuroverkon tietty kerros. Järjestelmässä neuroverkko ja sumean logiikan järjestelmä toimivat yhtenäisenä synkronisoituna kokonaisuutena kuvassa 26 esitetyllä tavalla.

Päättely moduuli

Täsmällistämis -moduuli Syötearvo

Neuro-sumean järjestelmän syöte

Sumeuttani is -moduuli

Neuro-sumean- järjestelmän ulostulo

Ulostuloarvo

Kuva 26: Hybridi neuro-sumea järjestelmä (Karray ja de Silva, 2004).

Tunnettu esimerkki hybridi neuro-sumeasta järjestelmästä on neljä- tai viisikerroksinen Adaptive-Network-based Fuzzy Inference System (ANFIS).

(40)

3. Monitorointimenetelmien vertailu

Monitorointiin liittyvien ongelmien tieto voidaan luokitella kahteen ryhmään:

sensorimittausten numeerinen informaatio ja asiantuntijoiden suullinen tieto.

Monitorointimenetelmillä rakennetut järjestelmät käyttävät tietoa vikojen löytämiseen ja diagnostointiin (Monostori ja Egresits, 1997).

Koikkalaisen (1994) määrittelemällä tavalla menetelmiä voidaan verrata suhteessa tietoon ja tietämykseen kuvan 27 mukaisesti. PCA:n ja PLS:n kaltaiset tilastomenetelmät ja tilastolliset luokittelijat asettuvat oikeaan yläkulmaan, sillä ne vaativat paljon mittausinformaatiota ja tietämyksen merkitys on suuri. Luokittelun mukaisesti neuroverkot ja neurolaskenta ovat myös kvantitatiivisia prosessihistoriaan perustuvia monitorointimenetelmiä ja perustuvat tilastomenetelmien tapaan suuren datamäärän hyödyntämiseen. Hybridijärjestelmät eli neuro-sumeat järjestelmät asettuvat kuvan 27 mukaisesti vähän, mutta hyvänlaatuista tietoa vaativien asiantuntijajärjestelmien ja tilastomenetelmien välille. Sumeat järjestelmät taas pystyvät erottamaan vähäisestä mittausinformaatiosta paljon tietoa.

Paljon mittaus- informaatiota

Vähän mittaus informaatiota

Tilastom enetelm ät Neurolaskenta Neurosumeat järjestelmät Neurolaskennalla tai tilastoilla viritettävät empiiriset mallit Sumeat järjestelmät

Fysiikaalis-kemialliset mallit Sääntöpohjaiset asiantuntija­

järjestelmät

---►

Tiedon (datan) Tietämyksen

merkitys suuri merkitys suuri

Kuva 27: Eri menetelmien käytön soveltuvuus tiedon ja tietämyksen suhteessa (Koikkalainen, 1994).

Kun laadukasta prosessidataa ei ole saatavilla ja sen vuoksi tarkkojen kvantitatiivisten mallien kehittämiseksi ei ole yksityiskohtaista tietoa, luodaan asiantuntijan kokemuksen avulla sääntöpohjainen asiantuntijajärjestelmä.

Taulukossa 1 Venkatasubramanian et ai. (2003c) ovat verranneet eri prosessihistoriaan perustuvien menetelmien diagnostisia piirteitä. Diagnostisten piirteiden vertailussa ei

(41)

ole otettu kantaa prosessidatan saatavuuteen ja sen laatuun, sillä kaikilla menetelmillä on vertailun mukaan lähes samat piirteet. Kvantitatiiviset ja kvalitatiiviset monitorointimenetelmät eroavat toisistaan taulukon 1 mukaan erilaisuuksien tunnistamisen ja selittävyyden kohdalla. Menetelmän soveltuvuuden ratkaisee pitkälti datan saatavuus ja sen muoto. Esikäsittelemällä prosessidataa menetelmäkohtaisesti voidaan soveltaa useita menetelmiä samalle alueelle. Jos menetelmien piirteitä verrattaisiin keskenään saman prosessidatan prosessointikyvyn suhteen, olisi tulos toinen.

Taulukko 1 : Eri diagnostiikkamenetelmien vertailu. + — ko. ominaisuus on olemassa, — ko. ominaisuus ei ole olemassa, ? — ominaisuus on tapauskohtainen (Venkatasubramanian et ai. 2003c).

Asiantuntija­

järjestelmät QTA PCA Neuroverkot

Nopea havaitseminen ja diagnoosi + + + +

Erottaminen + + + +

Kestävyys + + + +

Erilaisuuksien tunnistaminen - P + +

Luokitteluvirhe - - - -

Mukautuvuus - P - -

Selittävyys + + - -

Mallinnus + + + +

Muisti ja laskenta + + + +

Monien vikojen tunnistaminen - - - -

RBF-neuroverkon tapaiset neuroverkot toimivat kohinan esiintyessä stabiilisti.

Prosessihistoriaan perustuvien menetelmien rajoituksia on etenkin opetusdatan ulkopuolelle jäävien näytteiden havaitseminen (Venkatasubramanian et ai. 2003c).

3.1. Älykkäiden monitorointimenetelmien vertailu

Tietämyspohjainen eli asiantuntijajärjestelmillä mallintaminen tehdään puhtaimmillaan fysiikan lakien tai tunnettujen loogisten sääntöjen perusteella. Ongelmaksi muodostuu helposti mallintamisen vaikeus, koska reaalimaailma käyttäytyy usein ennustamattomalla tai myös vaikeasti kuvattavalla tavalla. Koskon (1992) mukaan neuroverkot edustavat numeerista laskentaa ilman rakenteista tietoa, sumeassa logiikassa tietämys on rakenteista, mutta sen käyttö on numeerista ja asiantuntijajärjestelmissä tietämys on rakenteista sekä sen käyttö symboliseen prosessointiin perustuvaa. Koikkalainen (1994) huomauttaa, että neuroverkoilla voi

(42)

ratkoa rakenteisen tiedon tehtäviä, jos tehtävä on koodattavissa numeeristen vektorien avulla.

Taulukossa 2 on esitetty älykkäiden monitorointimenetelmien eri soveltuvuusalueita.

Taulukko 2: Menetelmien soveltuvuus eri sovellusalueille. +++ = erittäin hyvin; ++ = hyvin;

+ = tyydyttävästi; - = ei sopiva (Isomursu et ai, 1993)

Sovellusalue Asiantuntijajärjestelmät Sumealogiikka Neuroverkot

Diagnostiikka + + + + + + +

Suunnittelu + + + + -

Hahmontunnistus - + + + + +

Laadunvalvonta + + + + +

Signaalianalyysi - + + + +

Ennuste + + + + +

Prosessien ohjaus - + + + +

Robotiikka - + + + + +

Kulkuneuvon ohjaus - + + + + +

3.1.1. Asiantuntijajärjestelmien soveltuvuus

Asiantuntijajärjestelmät soveltuvat parhaiten alueille, joissa ongelma pystytään määrittelemään selkeässä muodossa (esim. säännöin) ja parametrit ovat pääasiallisesti symbolisia eivätkä numeerisia.

Asiantuntijajärjestelmiä on sovellettu moneen eri kohteeseen, kuten opetukseen ja harjoitteluun, lääketieteelliseen diagnoosiin ja lääkemääräyksiin, mineraalien tutkimiseen, satelliittikuvien tulkitsemiseen, talouteen liittyviin ongelmiin, oikeuskonsultointiin, veronpalautusten valmisteluun, järjestelmien ongelman ratkaisuun ja ylläpitoon, suunnitteluun ja ajanhallintaan, sään ennustukseen ja järjestelmien säätöön (Karray ja de Silva, 2004).

3.1.2. Sumean logiikan käyttöalueet

Sumean logiikan kehittäminen vaatii hyvät ja visuaaliset sääntö- ja muuttujaeditorit.

Vaikka sumean logiikan sovelluksen kehittäminen ei perinteisesti kuulu datapohjaisiin menetelmiin, joudutaan dataa käyttämään joissakin kehityksen vaiheissa. Valittaessa ja analysoitaessa muuttujia tai testattaessa sovelluksen toimintaa datan käyttö kuuluu oleellisena osana kehitykseen (Haataja, 1998).

Viittaukset

LIITTYVÄT TIEDOSTOT

Diskreetin 2-ulotteisen jakauman ehdolliset odotusarvot: 1. heitosta) arvojen suhteen on merkitty katkoviivan yhdistämillä vinoneliöillä.

Vihreällä värillä on merkitty ne kustantajat, jotka ovat kaikkein vapaamielisimpiä ja sallivat julkaisun arkistoinnin sekä ennen että jälkeen vertaisarvioinnin. Sinisellä

järjestämä biologisten uhkien harjoitus merkitty Tullin vuoden 2019 vuosisuunnitelmaan jo vuonna 2017, kuten on medialle esitetty?. Onko harjoitukset merkitty myös muiden

Hätätilamenettelystä johtuen edellä kuvattu tilanne merkitsee perustuslain 94 ja 95 §:n osalta sitä, että pankkien suoran pää- omittamisen käyttöönoton

Lausuntomenettelystä annetun valtioneuvoston asetuksen (1301/2019) 2 §:n mukaan valtio- varainministeriön lausuntoa edellyttäviä merkittäviä tiedonhallinnan muutoksia ovat

Puun pituus (9) ja tukkiosan tilavuus (11) -tehtävillä puut on merkitty sekä sinisellä että keltaisella kuitunauhalla. Tehtävät on mitattu sääntöjen edellyttämällä tavalla

Louhittavan  alueen  likimääräinen  sijainti  on  rajattu  sinisellä.  Tarkastelun  kohteena  olevat  asuinrakennukset  on  merkitty  numeroin.  Tarkastelupisteen 

Permanent bosättning på området som läggs under flödesvatten vid en sällsynt översväm- ning (1 %; 1/100 a) är skyddad mot översvämningar eller man har förberetts sig inför