Kelaa vastaavan Ruotsin Försäkringskassanin taulukossa ulkomailla syntyneet olivat vuonna 2023-2024 yliedustettuina lähes kaikissa tarkastelluissa sosiaalitukien maksatusepäselvyyksissä.
Yliedustus oli erityisen suurta henkilökohtaisessa avustajakorvauksen, vanhempainrahan ja lapsilisien maksatuksessa. Lapsilisien väärinkäytökset esimerkiksi olivat ulkomailla syntyneiden osalta erityisen hälyttävällä tasolla, sillä suhteellinen ero väestöryhmien välillä on huima (0,1 Ruotsissa syntyneet versus 3,0 ulkomailla syntyneet).
Tekoäly tunkiolle
Tuloksista heräsi tieteellisiä epäilyjä tai sitten ne vain olivat vastoin yleistä maahanmuuttajaväestöön kohdistuvaa positiivishakuista eetosta. Försäkringskassanin tekoälyjärjestelmä päätyi roskakoriin.
Virallisesti syynä oli se, että paikallisen tulkinnan mukaan järjestelmä tuppasi kohdistamaan petosepäilyjä syrjivällä tavalla sukupuolen, etnisyyden, tulotason ja koulutustason perusteella. Asia tuli selväksi Svenska Dagbladetin ja Lighthouse Reportsin tutkimuksissa.
Viranomaiset kohdistivat siis tarkastuksia AI:n avulla henkilöihin, joiden petosriskin nimenomaan tekoäly oli määrittänyt korkeaksi. Tutkimus paljasti, että järjestelmä syyllisti ryhmiä, jotka olivat jo valmiiksi marginalisoituja. Tämä toki on eettismoraalisesti ongelmallista.
Kela pisti AI:n hyllylle
Myös Suomessa Kansaneläkelaitos on luopunut kokeilusta, jonka tarkoitus oli löytää väärin perustein sosiaaliturvaa nostavia tekoälyn avulla, kertoo Yle.
Kelalla oli viime syksyyn saakka pilottihanke, jossa tekoäly kävi läpi tiedostoja ja etsi sieltä epäilyttäviä poikkeamia. Kokeilu on kuitenkin haudattu epäselvän lainsäädännön takia.
– Oikeuskäytännöt ovat puutteelliset, ja tulkinnatkin tekoälyn käytöstä tämän tapaisissa asioissa ovat tulkinnanvaraisia, perustelee Kelan IT-palveluista vastaava johtaja Nina Nissilä hankkeen hyllyttämistä.
Kansa haistaa palaneen käryä
Sosiaalisessa mediassa Försäkringskassanin ja Kelan AI-projektien hyllyttämistä on kommentoitu yksisuuuntaisesti. Suomeksi sanottuna lopettamisten motiivia epäillään, koska sitä ei ole riittävän selkeästi ilmaistu. Seuraavat näkemykset ovat viestipalvelu X:stä:
– Logiikka eettisessä AI:ssa on se että kyseessä on syrjintä, mikäli AI:n toiminnan tuloksissa jokin etninen ryhmä joutuu huonompaan asemaan kuin muut, aivan riippumatta siitä mikä todellisuus on. Valitettavasti tämä käsitetään ihan oikeasti näin.
– Jotenkin sosiaalietuuksien väärinkäyttäminen on meillä kielletty aihe. Faktoja ei saa kertoa vaikkapa eri ihmisryhmien osallisuudesta erilaisiin asioihin Suomessa.
– Jotenkin arvasin kyllä syyn kun kuulin tänään lopettamisuutisen.