Ajankohtaista
 / 
Miten pitäisi valmistautua EU:n tekoälysääntelyyn?

Miten pitäisi valmistautua EU:n tekoälysääntelyyn?

IT, teknologia ja media
18.4.2023
Merilammen toimiston julkisivun kulma

Yhteenveto suosituksista

Tekoälyn sovellukset muuttavat erittäin merkittävästi menestymisen edellytyksiä niin yksilöille kuin yrityksille. EU on katsonut, että näiden muutosten ohjaaminen ja rajoittaminen vaatii lainsäädäntötoimia EU-tasolla, ja tämän seurauksena EU:n lainsäädäntöelimet valmistelevat parhaillaan tekoälyasetusta. Koska tekoälyn sovellukset ovat yrityksille ratkaisevan tärkeitä tulevaisuudessa, yritysten olisi syytä erikseen harkita, mitä toimia valmisteilla olevan lainsäädännön perusteella pitäisi tehdä jo nyt.

Jäljempänä tarkemmin selvitettävillä perusteilla suosittelemme tässä vaiheessa seuraavia toimia:

  1. ”Tekoäly” tullaan määrittelemään EU:n tekoälyasetuksessa. Selvitä, sisältävätkö yrityksesi nyt tai jatkossa käyttämät järjestelmät ehdotetun määritelmän mukaisia tekoälyratkaisuja.
  2. Jos tekoälyratkaisuja on tarkoitus käyttää, ratkaisut kannattaa jakaa asetuksen riskikategorioihin.
  3. Keskeistä on, katsotaanko tekoälyratkaisu kielletyksi tai korkean riskin kategorian tekoälyjärjestelmäksi. Mikäli näin on, kannattaa sääntelyprosessia seurata erityisen tarkasti, sekä selvittää, mitä toimia yrityksessä tulee tehdä sääntelyn noudattamiseksi ja liiketoiminnan häiriöttömäksi jatkamiseksi sääntelytointen edetessä.

Tässä artikkelissa avaamme EU:n tekoälyasetuksen sisältöä. Tekoälysääntelyä koskevan artikkelisarjamme toinen osa ilmestyy toukokuun alussa. Silloin käsittelemme muuta tekoälyä koskevaa voimassa ja valmisteilla olevaa sääntelyä sekä muita ajankohtaisia kysymyksiä, kuten Elon Muskin ja muiden teknologiavaikuttajien maaliskuun lopussa julkaisemaa avointa kirjettä, jossa vaadittiin hallitsemattomalta vaikuttavan tekoälyn kehityskilpailun keskeyttämistä puoleksi vuodeksi, jotta sääntely saadaan ensin riittävälle tasolle.

Valmisteilla oleva EU:n tekoälyasetus

Euroopan komissio antoi asetusehdotuksen huhtikuussa 2021, EU:n neuvoston yleisnäkemys saatiin joulukuussa 2022 ja tällä hetkellä ehdotus on Euroopan parlamentin käsittelyssä. Asetuksen lopullinen sisältö ja voimaantuloaikataulu ovat vielä epäselvät. Todennäköisesti voimaantulon jälkeen yrityksillä on noin 2–3 vuoden siirtymäaika saattaa toimintansa asetuksen mukaiseksi.

Tekoälyn määritelmä

Asetuksen valmistelun aikana on keskusteltu laajasti siitä, mitä järjestelmiä sääntelyn pitäisi koskea. Valmistelun yhteydessä esitettyjen kommenttien perusteella on todennäköistä, että tekoälyllä ei tarkoiteta pelkästään ChatGPT:n kaltaisia uusia sovelluksia, vaan asetuksen soveltamisalaan kuuluvia tekoälysovelluksia on jo laajasti käytössä.

Suomi on esittänyt kapeaa asetuksen piiriin kuuluvien tekoälyjärjestelmien määrittelyä. Komission ehdotusta kapeamman määritelmän tarkoituksena on se, että asetus soveltuisi ainoastaan tekoälyä aidosti hyödyntäviin järjestelmiin ja teknologioihin. Siten sääntöpohjaista automaatiota ei tulisi katsoa asetuksen mukaiseksi tekoälyksi, koska se noudattaa ihmisen ennalta ohjelmoimia sääntöjä automaattisesti, sen sijaan, että järjestelmät käyttäisivät ”omaa harkintavaltaa”. Suomessa esimerkiksi Traficom tekee vuosittain 7,3 miljoonaa ajoneuvoverotusta koskevaa maksuunpanopäätöstä automaattisen päätöksenteon avulla, eikä tätä toimintaa näytä olevan tarkoituksenmukaista tuoda tekoälysääntelyn piiriin.

Neuvosto osin kavensi komission ehdottamaa määritelmää. Neuvoston muokkaamassa asetusehdotuksessa tekoälyjärjestelmä on määritelty autonomisesti toimimaan suunnitelluksi järjestelmäksi, joka koneen ja/tai ihmisen syöttämien tietojen pohjalta päättelee, miten voidaan saavuttaa tietyt tavoitteet käyttämällä koneoppimisen lähestymistapoja, ja sen perusteella tuottaa erilaisia tuotoksia. Toisaalta asetuksen tekstiin myös lisättiin uusia säännöksiä koskemaan tilanteita, joissa tekoälyjärjestelmiä voidaan käyttää moniin erilaisiin tarkoituksiin (yleiskäyttöinen tekoäly, kuten ChatGPT) ja joissa yleiskäyttöinen tekoäly integroidaan toiseen järjestelmään. Tekoälyn määritelmää on tarkoitus myös täydentää sitä mukaa kuin teknologia kehittyy.

Esimerkiksi itseohjautuvien ajoneuvojen teknologia perustuu autonomiaan, sillä ajoneuvon sisältämä tekoälyjärjestelmä suunnittelee auton reitin, käyttää konenäköä esineiden ja esteiden tunnistamiseen ja tekee päätöksiä erilaisissa monimutkaisissa tilanteissa perustuen oppimaansa. Olisi mahdotonta manuaalisesti ohjelmoida jokainen ajoneuvon toiminto erikseen, joten autonomisesti oppiva koneäly on tällaisissa koneissa välttämätön. Sen sijaan perinteiset chatbotit ovat yleisesti sääntöpohjaista automaatiota hyödyntäviä. Ne on ohjelmoitu tunnistamaan tietyt kysymykset ja vastaamaan niihin, mutta ne eivät välttämättä opi saamistaan kommenteista.

Riskikategoriat

Asetusehdotuksessa tekoälyä käyttävät järjestelmät on jaettu kolmeen riskikategoriaan:

  1. kielletyt,
  2. suuririskiset ja
  3. vähäisen tai minimaalisen riskin tekoälyjärjestelmät.

Kielletyt tekoälyjärjestelmät

Kiellettyihin järjestelmiin lukeutuvat järjestelmät, joiden käyttäminen katsotaan EU:n arvojen vastaisiksi perusoikeuksien loukkausten takia. Kiellettyä on tekoälyn hyödyntäminen ihmisten käyttäytymiseen vaikuttamiseen heidän henkilökohtaisten ominaisuuksiensa perusteella tavalla, joka kohtuullisella todennäköisyydellä aiheuttaa henkilölle fyysistä tai psyykkistä haittaa. Lisäksi kiellettyjä ovat tekoälyjärjestelmät, joilla arvioidaan tai luokitellaan ihmisiä heidän sosiaalisen käyttäytymisensä tai muiden henkilökohtaisten ominaisuuksiensa perusteella. Esimerkki tällaisesta on Kiinassa testattu, tekoälyyn pohjautuva sosiaalinen pisteytysjärjestelmä viranomaisten yleisiä tarkoituksia varten.

Suuririskiset tekoälyjärjestelmät

Asetusehdotuksen viimeisimmän version mukaan näyttää siltä, että varsin suuri osa tekoälysovelluksista voi kuulua suuririskisiin tekoälyjärjestelmiin. Ehdotuksen mukaan suuririskiset tekoälyjärjestelmät aiheuttavat merkittävän riskin luonnollisten henkilöiden terveydelle ja turvallisuudelle ja perusoikeuksille. Suuririskiseen kategoriaan voivat päätyä esimerkiksi järjestelmät, joita voi hyödyntää biometrisessa etätunnistamisessa, kriittisessä infrastruktuurissa, opiskelijavalinnoissa tai henkilöstöhallinnossa. Nämä järjestelmät ovatkin eniten säännelty alue tekoälyasetuksessa.

Suuririskisten järjestelmien tarjoajien olisi esimerkiksi otettava käyttöön laadunhallintajärjestelmä, jossa on dokumentoitava laajasti muun muassa 1) strategia säännösten noudattamista varten, 2) tekoälyjärjestelmän suunnittelussa, suunnittelun valvonnassa ja rakenteen tarkastuksessa käytettävät tekniikat ja menettelyt, 3) tekoälyjärjestelmän tarkastus-, testaus- ja validointimenettelyt, jotka suoritetaan sen kehittämistä ennen, sen aikana ja sen jälkeen, sekä 4) vastuuvelvollisuuskehys, jossa määritellään eri tahojen vastuut kaikkien listan kohtien osalta.

Suuririskisten tekoälyjärjestelmien käyttäjien on puolestaan esimerkiksi huolehdittava, että järjestelmän ihmisten suorittama valvonta on riittävästi järjestetty. Lisäksi käyttäjän on huolehdittava siitä, että se ilmoittaa järjestelmän virhe- ja vaaratilanteista niille, joihin virhe- tai vaaratilanne saattaa vaikuttaa.

Vähäisen tai minimaalisen riskin tekoälyjärjestelmät

Vähäisen tai minimaalisen riskitason tekoälyjärjestelmiä koskevat sääntely on suunniteltu kevyeksi ja se koskee lähinnä läpinäkyvyysvaatimuksia ja itsesääntelyyn kannustamista. Lähtökohtana on, että järjestelmät, joiden on tarkoitettu olevan kontaktissa ihmiseen, tulee suunnitella ja kehittää sellaisiksi, että käyttäjä tietää olevansa tekemisissä tekoälyn kanssa.

Entä jos järjestelmä on jo markkinoilla?

Asetusehdotuksessa esitetään, että suuririskisiä järjestelmiä koskevia sääntöjä ei sovellettaisi tekoälyjärjestelmiin, jotka ovat käytössä ennen asetuksen voimaantuloa. Tätä perusteltiin muun muassa oikeusvarmuudella ja tekoälyjärjestelmien käytön jatkuvuuden varmistamisella. Jos järjestelmän suunnitteluun tai käyttötarkoitukseen kuitenkin tehdään huomattavia muutoksia, tulisi asetus sovellettavaksi myös ennen asetuksen voimaantuloa käyttöön otettuihin järjestelmiin.

Seuraamukset

EU:n yleisen tietosuojasetuksen (GDPR:n) tapaan tekoälyyn liittyvän sääntelyn rikkomisesta voi seurata mahdollisten vahingonkorvausvastuiden lisäksi merkittäviä hallinnollisia seuraamuksia. Kielletyksi luokitellun tekoälyjärjestelmän markkinoille saattamisesta, käyttöönotosta tai käytöstä voidaan ehdotuksen mukaan määrätä enintään 30 MEUR:n tai 6 %:n yrityksen edeltävän tilikauden liikevaihdosta suuruinen sakko (sen mukaan, kumpi on suurempi). Tiettyjen yleiskäyttöisiin ja suuriskisiin tekoälyjärjestelmiin liittyvien säännösten rikkomisesta on puolestaan ehdotettu sakoksi enintään 20 MEUR tai 4 % liikevaihdosta.

Lue myös:

Tekoälysääntely on paljon muutakin kuin EU:ssa valmisteilla oleva tekoälyasetus

Tilaa uutiskirje

Kirjoitamme ja koulutamme säännöllisesti osaamisalueitamme koskevista ajankohtaisista aiheista. Ilmoittamalla sähköpostisi alla olevalla lomakkeella saat jatkossa Merilammen uutiskirjeitä ja tapahtumakutsuja suoraan sähköpostiisi.

Kiitos! Tilauksesi on vastaanotettu.
Jotain meni vikaan. Halutessasi, ota yhteyttä info@merilampi.com.