Kuvassa Pekka Aula

Tekoäly tieteessä: mahdollisuuksista eettisiin haasteisiin

”On tärkeää, että tiedeyhteisö määrittelee selkeät suuntaviivat tekoälyn soveltamiselle, lisää läpinäkyvyyttä ja ylläpitää jatkuvaa dialogia siitä, miten teknologiaa voidaan hyödyntää oikeudenmukaisesti ja tehokkaasti”, kirjoittaa pääsihteerimme Pekka Aula. ”Tieteellinen tutkimus ei ole irrallaan yhteiskunnallisista arvoista ja eettisistä pohdinnoista.”

Tekoälyn viimeaikainen kehitys ja eritoten uusien tekoälysovellusten ja -palvelujen helppo käytettävyys on tuonut tieteelliseen tutkimukseen valtavasti uusia mahdollisuuksia. Koneoppimisen ja generatiivisten kielimallien avulla tutkijat voivat nykyisin suoriutua monimutkaisista tehtävistä aiempaa nopeammin ja tehokkaammin.

Nature-lehden yli 1 600 tutkijan näkemyksiä kartoittanut äskettäinen selvitys valottaa tekoälyn integroitumista tieteelliseen yhteisöön.1 Selvityksen mukaan suuri osa tutkijoista pitää tekoälyä arvokkaana apuvälineenä esimerkiksi datan käsittelyssä ja laskentojen nopeuttamisessa. Kuitenkin huoli tekoälyn tuomista riskeistä, kuten väärän tiedon levittämisestä ja tieteellisen vilpin lisääntymisestä, on ilmeinen. Erityisesti suuret kielimallit voivat tuottaa tutkimuksissa virheitä ja harhaanjohtavia tuloksia, mikäli mallien toimintaa ei käsitellä kriittisesti.

”Tekoälyn rooli voi rajoittua tutkimusavustajan tehtäviin, mutta sen potentiaali on paljon laajempi.”

Tekoälyn rooli voi rajoittua tutkimusavustajan tehtäviin, mutta sen potentiaali on paljon laajempi. Tieteellä on käytössään valtavat massat dataa, jonka analysointiin tekoäly on osoittautunut päteväksi työkaluksi. Esimerkiksi geneettisten sekvenssien analysointi ja ilmastonmuutoksen mallintaminen ovat tutkimusalueita, joissa tekoälyn avulla on saavutettu merkittäviä etuja, jotka olivat aiemmin tutkijoiden ulottumattomissa.

Kuten Nature-lehden selvityskin toteaa, tekoälyn käyttö tieteessä ei ole ongelmatonta. Suurin riski on, että tekoälyyn perustuva tieto alkaa ohjailla tieteellistä konsensusta harhaanjohtavaan suuntaan. Tämä vaara on todellinen, mikäli tekoälyä koulutetaan puutteellisilla tai vinoilla datamassoilla. Tällainen harhaanjohtava data voi vahvistaa esimerkiksi virheellisiä käsityksiä ja stereotypioita.

”Tieteellisen tutkimuksen etiikka edellyttää, että tekoälyn kriittinen tarkastelu ei rajoitu teknisiin yksityiskohtiin.”

Tieteellisen tutkimuksen etiikka edellyttää, että tekoälyn kriittinen tarkastelu ei rajoitu teknisiin yksityiskohtiin. On välttämätöntä keskustella avoimesti siitä, miten ja missä määrin tekoälyä käytetään, kenen eduksi ja millaisin seurauksin. Tieteellisen yhteisön vastuulla on varmistaa, että tekoälyä hyödynnetään vastuullisesti ja eettisesti tukemaan tieteellistä edistystä samalla kun kunnioitetaan ihmisarvoa ja yksilön oikeuksia.

Olemme Suomalaisessa Tiedeakatemiassa tehneet kevään aikana useita kokeiluja tekoälyn soveltamisesta moninaisiin työtehtäviin, kuten viestintään ja tiedeneuvonnan eri muotoihin. Lisäksi olemme muodostaneet työntekijöistä oppimispareja, jotka pohtivat tekoälyn riskejä ja mahdollisuuksia ja jakavat uusia ideoita ja sovellusmahdollisuuksia. Olemme myös laatineet oman eettisen ohjeistuksen tekoälyn käyttöön.

Naturen selvitys paljasti myös hieman yllätyksettömästi, että tekoälyn merkitys tutkijoiden työssä tulee kasvamaan. Yli puolet vastaajista odottaa tekoälyn olevan ”erittäin tärkeä” tai ”olennainen” omalle tutkimusalalleen seuraavien vuosien aikana. On tärkeää, että tiedeyhteisö määrittelee selkeät suuntaviivat tekoälyn soveltamiselle, lisää läpinäkyvyyttä ja ylläpitää jatkuvaa dialogia siitä, miten teknologiaa voidaan hyödyntää oikeudenmukaisesti ja tehokkaasti. Tieteellinen tutkimus ei ole irrallaan yhteiskunnallisista arvoista ja eettisistä pohdinnoista. Tekoälyn muokkaamana tieteen on muokattava myös tekoälyä – eettisesti, tarkoituksenmukaisesti ja yhteisen hyvän nimissä. Näin tiede ja inhimillisyys voivat jatkossakin edistyä rinta rinnan.

Pekka Aula

Suomalaisen Tiedeakatemian pääsihteeri

Kirjoitus on julkaistu Suomalaisen Tiedeakatemian Vuosikirjassa 2023. Vuosikirja on luettavissa vapaasti verkkosivuillamme: tutustu julkaisuun.



1 Van Noorden, Richard & Perkel, Jeffrey M. 2023: AI and science: what 1,600 researchers think. Nature 621, s. 672–675.