Google julkaisi kauan odotetun Gemini-tekoälysovelluksensa, ja siitä syntyi nopeasti kohu. Tekoäly tyrkytti vääristyneitä ja historiallisesti epätodellisia kuvia, kuten naispaaveja, mustia viikinkejä ja mustia natsiupseereita. Googlea syytettiin ”absurdista wokesta”, ja palvelua pidettiin ”käyttökelvottomana”. Google reagoi kohuun laittamalla kuvageneraattorin väliaikaisesti pois käytöstä ja ilmoitti työstävänsä parannellun version palveluun. Politiikankommentaattori Douglas Murray analysoi, että taustalla on teknisten ratkaisujen sijaan yleisempi Piilaakson aatteellinen ilmapiiri. Hänen mukaansa Google on yrittänyt tyrkyttää yleisölle ennakkoluuloisesti identiteettipoliittista maailmankuvaa.

Googlen kauan odotettu AI-työkalu Gemini joutui nopeasti woke-kohun kohteeksi, kun tekoäly alkoi tuuttaamaan vääristyneitä ja historiallisesti epätodellisia kuvia – naispaavi, mustia viikinkejä, naispuolisia NHL-pelaajia sekä ”monimuotoisia” tulkintoja Yhdysvaltain 1700-luvun perustajaisähahmoista. Googlen tekoäly tarjosi tällaisia tulkintoja yksinkertaisiin komentoihin kuten ”tee kuva paavista”.

Tekoälyn luomat kuvat muistuttivat woke-satiiria. Kuva ”Yhdysvaltain perustajaisistä vuonna 1789” tuotti kuvia mustista ja intiaaneista allekirjoittamassa Yhdysvaltain perustuslakia. George Washingtonista oli tehty musta hahmo, jolla oli valkoinen peruukki ja armeijan uniformu.

Kuvat olivat kuin vaihtoehtoisesta todellisuudesta, eivätkä historiasta ja tästä maailmasta. Sosiaalisessa mediassa Googlen palvelua kritisoitiin ”absurdin wokeksi” ja ”käyttökelvottomaksi”.

Kun Googlen Geminiltä kysyttiin, miten se päätyi tällaisiin kuvituksiin, se tarjosi perusteluksi ”tavoitetta luoda tarkka ja inklusiivinen kuvaus historiasta”.

Torstaina Google ilmoitti laittavansa kuvageneraattorin varikolle kohun seurauksena.

”Olemme parhaillaan selvittämässä uusinta tapausta Geminin kuvanluomistoimintoon liittyen”, Google ilmoitti virallisesti viestipalvelu X:ssä. ”Tämän myötä aiomme keskeyttää ihmishahmoihin liittyvän kuvanluomistoiminnon ja lähiaikoina tulemme julkaisemaan parannellun version.”

Miten näin pääsi käymään?

Pikakelaus lähihistoriaan. Tietokirjailija ja politiikankommentaattori Douglas Murray näkee, että teknisten ratkaisujen sijaan taustalla on Piilaakson yleisempi, identiteettipolitiikan kyllästämä aatteellinen ilmapiiri:

”Muutama vuosi sitten menin Piilaaksoon selvittääkseni, mitä ihmettä Googlen kuvahaulle ja muille vastaaville palveluille oli tapahtunut. Googlen kuvahaussa oli jo havaittavissa erityistä vinoumaa.”

Murray kertoo, että jos kirjoitit kuvahakuun ”homopariskunta”, sait asian mukaisesti paljon kuvia iloisista homopariskunnista. Jos taas pyysit kuvia ”heteropariskunnista”, sait myös kuvia homopariskunnista.

Jos pyysit kuvia ”mustista pariskunnista”, sait paljon kuvia iloisista mustista pariskunnista. Jos jälleen pyysit kuvia ”valkoisista pariskunnista”, tulokseksi tuli kuvia mustista pariskunnista tai pariskunnista, joista toinen oli musta. Monet olivat myös samaa sukupuolta.

Piilaaksossa tälle tarjottiin selitykseksi ”reilua koneoppimista”. Tausta-ajatuksena oli, että ihmisillä on piiloennakkoluuloja, joita teknologiajättien tulisi oikoa omin päin. Toisaalta, algoritmit olivat jälleen vinossa ja paljon enemmän kuin ihmiset yleensä.

Murray kertoo, ettei kyse ole tekoälystä oppimassa vain itsekseen. Ihmiset olivat opettaneet algoritmeja toimimaan juuri tietyllä tavalla. Samoja havaintoja pystyy tekemään Googlen kuvahausta yhä tänäänkin.

Tavallisia perhekuvia pyytävä käyttäjä saa kärkiehdotusten joukkoon ”Queer-oppitunteja heteropariskunnille” ja ”Ohjeita heteropariskunnille vanhalta samansukupuoliselta pariskunnalta”. Vastaavia tuloksia on jopa hankalampi saada, jos pyytää vain kuvia ”homopariskunnista” – puhumattakaan siitä, että hakupalvelu tyrkyttäisi vastaavasti kuvia heteropariskunnista.

Google näyttää tyrkyttävän tiettyjä etnisiä ja seksuaali-identiteettejä enemmän kuin muita.

Woke osui omaan nilkkaan

Murray nostaa esille ristiriidan, jossa ikään kuin ennakkoluuloja oikova tekninen työkalu on ladattu täyteen toisenlaisia ennakkoluuloja.

”Teknologiajätit toimivat kuin ne yrittäisivät opettaa käyttäjiään. Se olettaa, että ihmiset ovat homofobisia valkoisia rasisteja, jotka tarvitsevat uudelleenkoulutusta. Tällainen oletus on loukkaava.”

Murrayn mukaan Googlen tekoäly antaa suurelle yleisölle virheellisen kuvan sekä nykyhetkestä että historiasta.

”Kun käymme läpi historiaa, huomaamme sen poikkeavan nykyisyydestä. Näemme, miten asiat poikkesivat nykyisyydestä. Huomaamme, miten asiat olivat, ja oppiminen tapahtuu juuri sitä kautta.”

Menneisyyden väärentäminen vie Murrayn mukaan ihmisiltä mahdollisuuden oppia historiasta sellaisena kuin se tapahtui.

Vasta ennennäkemättömän kritiikkivyöryn myötä Google joutui reagoimaan tekoälynsä toimintatapoihin. Ironisesti kritiikkiä tehosti se, että Googlen tekoäly kuvasi natsisotilaita epärealistisen monietnisesti käyttämällä nykyaikaista monimuotoisuuskuvastoa.

”Jos haet kuvia natsiupseereista, tekoälyn mukaan kolmannessa valtakunnassa oli mustia natseja. Kukapa olisi uskonut?”

Murray muistuttaa, että Neuvostoliitossa oli muinoin vitsi, joka näyttää pätevän tekoälyn aikakaudella myös Yhdysvaltoihin: ”Ainut varma asia on tulevaisuus. Menneisyys jatkaa muuttumistaan.”

SUOMEN UUTISET