Kieliteknologian kehittyminen helpottaa paitsi moderointia myös sensuuria, sanoo kieliteknologiamenetelmistä väittelevä Tommi Gröndahl.
Tohtorikoulutettava Tommi Gröndahl väitteli 23. elokuuta kieliteknologioista Aalto-yliopistossa. Kieliteknologia on yksi yleisimmistä tekoälyn muodoista, ja Gröndahl testasi sen menetelmiä muun muassa valheiden ja vihapuheen tunnistamisessa.
”Tekoälyä tarvitaan, kun massiivista datamääristä pitää seuloa ja siivilöidä haluttuja asioita. Kieliteknologiat ovat kuitenkin olleet musta laatikko eli niitä on käytetty ilman, että on oikeastaan ymmärretty, miten ne prosessoivat kieltä”, Gröndahl sanoo.
Gröndahlia kiinnostivat erityisesti menetelmien seuraukset tietoturvan ja yksityisyydensuojan näkökulmasta.
”Jos kieliteknologiamenetelmiä kehitetään, se parantaa sekä moderoinnin että sensuroinnin mahdollisuuksia. Tekniikat ovat ihan samoja, on tekstin luokittelulla mitä tahansa seurauksia kirjoittajalle”, Gröndahl sanoo.
Gröndahl vertasi tutkimuksessa syväoppivia neuroverkkoja perinteisempiin sääntöpohjaisiin menetelmiin. Niissä ihminen luo järjestelmään säännön, jota sitten hyödynnetään automatisoinnissa. Menetelmien väliltä löytyi suuria eroja.
”Monimutkaisissa neuroverkkomalleissa on niin valtavasti numeroita, että on vaikea tietää, mitä tekstin piirrettä kukin edustaa ja mitä tekstille tapahtuu, kun jokin numeroista muuttuu. Kun teksti kaipaa yksityiskohtaista jäsentämistä, yleisimmin käytetyt neuroverkkomallit eivät aina ole luotettavia. Neuroverkkomallilla saattaa esimerkiksi olla vaikeuksia tehdä eroa lauseen ja sen kielteisen vastineen välillä”, Gröndahl sanoo.
Sääntöpohjaisten menetelmien vahvuus taas ei ole isojen datamäärien seulomisessa. Siksi on oleellista yhdistää eri menetelmien parhaat puolet.
Menetelmät helposti huijattavissa
Tekstin luokittelu perustuu tyypillisesti melko yksinkertaisiin piirteisiin, kuten tiettyihin yksittäisiin sanoihin. Esimerkiksi valheentunnistuksessa menetelmät eivät oikeastaan tunnista valheita vaan juuri näitä yksinkertaisia piirteitä datassa. Monimutkaiset koneoppimismallit jäävät kiinni tällaisiin piirteisiin yhtä lailla kuin yksinkertaisemmat mallit. Tämä asettaa mallit alttiiksi hyökkäyksille; esimerkiksi vihapuheentunnistimet ovat helposti ihmisten huijattavissa, kun tekstistä poistetaan välilyöntejä tai tekstin sekaan lisätään esimerkiksi sana ’rakkaus’.
Gröndahlin mukaan annettu tehtävä ja harjoitusdata vaikuttavat siihen, miten hyvin tekoälyyn perustuva luokittelija onnistuu tehtävässään.
”Kun koneoppimismallit ovat massiivisia, on tärkeää, että luokittelija saa tarpeeksi harjoitusdataa. Se voi helposti jäädä kiinni myös ei-toivottuihin piirteisiin, jos harjoitusdata on vinoutunutta eli jollain tapaa epäedustavaa. Monimutkaiset koneoppimismallit eivät tiedä, milloin joku sana tai merkki kannattaa ottaa huomioon ja milloin ei vaan toimivat annetun harjoitusdatan perusteella”, Gröndahl sanoo.
Gröndahl tutki vihapuheen ja valheentunnistuksen lisäksi myös kieliteknologian mahdollisuuksia kirjoitustyylin automaattisessa muuttamisessa sekä automaattisessa tekstinmuokkauksessa. Tavoitteena voi olla esimerkiksi se, että kirjoittajaa ei pystytä tunnistamaan.
Esimerkiksi kirjoitustyylin automaattisessa muuttamisessa neuroverkko tuotti konekäännöksen tapaisen muunnoksen, jonka lopputuloksena saattoi olla saman tekstin toistaminen tai tekstisisällön merkityksen muuttuminen. Sääntöpohjaisissa menetelmissä pystytään kontrolloimaan yksityiskohtaisemmin esimerkiksi tietyn sanan, vaikkapa synonyymin tai vastakohdan, vaikutusta lauseen muunnokseen.
Pikkujoulujen ykköshitti 2024!Kuuntele Spotifysta Seuramiehet - MUKAVAX