0. Johdanto: Kielellinen sissisota
Kielellisen relativismin mukaan, jos tämä teoria otetaan sen vahvimmassa muodossaan,
tarkoittaa, että ihminen ymmärtää maailmaa ensisijaisesti kielensä kautta, ja toisen,
lievemmän muodon mukaan kieli ohjaa ymmärrystämme maailmassa, ollen relaatiossa
sen kanssa, miten olemme maailmassa. Täten voidaan myös argumentoida, että kielellä
on maailmaa ja olemassaoloa rakentava vaikutus, ja kielen kautta voimme muuttaa sitä,
miten oleminen tapahtuu. Mark Wrathallin mukaan olemista tutkinut filosofi Martin
Heideggerin kielellinen ymmärrys perustui tähän väittämään, kielen ollen rakentava ei
niinkään entiteettejä muodostavana, vaan maailmaa ja sen entiteettejä järjestävänä.
Filosofi Gilles Deleuze kirjoittaa kielen antavan todellisuuden mahdolliselle maailmalle,
maailman realisoituessa kielessä. Esseeni kannalta oletetaan näiden argumenttien
olevan totta.
Simona Stano on kirjoittanut artikkelissaan: ”Linguistic guerrilla warfare 2.0: On the
“forms” of online resistance” “Algospeakista”, vapaasti suomennettuna “algopuheesta”,
joka on yritys sanoja muuttamalla sosiaalisen median eri alustoilla sekä internet
foorumeilla ohittaa algoritmien sensurointiyritykset (esimerkiksi sana “porn” muuntuu
sanaksi “corn”, tai korvautuu kokonaan maissintähkää esittävällä hymiöllä). Tämä on
Stanon mukaan johtanut kielelliseen sissisodankäyntiin sensuuria vastaan, joka
muokkaa algopuheen käyttäjiä sekä identifioitumaan internetin sidosryhmäänsä
syvemmin, että käyttämään kieltä voimautuakseen. Tämä toimintamalli on kuitenkin
noussut olosuhteiden pakosta eri internetalustojen sensuurin voimistuessa.
Ella Steen, Kathryn Yurechko ja Daniel Klug ovat tutkineet algopuhetta TikTok -
sovelluksessa, ja tutkimuksessaan huomasivat, että TikTok algoritmi tuntui olevan
vinoutunut kohdistamaan sensuuria LGBTQI+ yhteisöön. Sisällöntuottajat myös
huomasivat tykkäys- ja jakomääriensä parantuvan jos he käyttivät algopuhetta
videoissaan. Hishamudin Isam argumetoi artikkelissaan: “From Digital Technology to
Society: Algospeak and Communication Styles on Social Media in The Era of Artificial
Intelligence (AI)” digitaalisten alustojen kommunikaation olevan tunteettomampaa kuin
ihmisten toistensa kanssa toteutuva kommunikaatio. Koska yhä suurempi osa
kommunikaatiosta tapahtuu sosiaalisessa mediassa ja digitaalisilla alustoilla, teknologia
muuttaa myös käytöstämme ja kommunikaatiomallejamme yhteiskunnassa yleisesti, ei
vain internetin alustoilla.
Algoritmit, jotka eivät välttämättä tarkoita tekoälyä, ovat osa meidän jokapäiväistä
elämää, ja Rik Peeters ja Marc Schuilenburg argumentoivat, että tästä voidaan puhua jopa
algoritmisenä hallintana, tai kuten sosiologi Aneesh Aneesh ilmaisee: “algokratiana”. Kun
tarkastelee edellä mainittuja esimerkkejä huomioin, että esimerkiksi sensuuri on
ulkoistettu algoritmeille, jolloin ihmisen toimijuus häivytetään prosessista, tai ainakin sitä
pyritään nopeuttamaan algoritmien avulla. Kuten voidaan nähdä, algoritmit sisältävät
vinoumia, ja koska niillä kyetään käsittelemään ihmisymmärryksen rajat ylittäviä
datamääriä, voivat nämä vinoumat vaikuttaa miljooniin ihmisiin. Internetin eri alustoilla
sensurointi on ulkoistettu algoritmeille ja tekoälylle, Ja pahimmassa tapauksessa tämä
saattaa johtaa kuplautumiseen. Algoritmit määrittyvät kuitenkin datasta, jota syötämme
niille aktiivisesti osallistuessamme internetin välityksellä kanssakäymiseen toistemme
kanssa. Täten algoritmit ja niiden vinoumat muodostuvat lopulta ihmisistä, ja olemme
aktiivisessa vuorovaikutuksessa niiden muodostumiseen, että niistä muovautumiseen.
Kysymykseksi täten nousee, miksi tekoälylle ja algoritmeille on ulkoistettu moraalin piiriin
kuuluva sensuuri internetin alustoilla?
Tässä esseessä tutkin ja pohdin tekoälyä eettisenä entiteettinä, jolle olemme
antaneet suostumuksemme esimerkiksi internet alustojen sensuuriin. Pohdin, voiko
tekoäly olla entiteetti, johon vertaamme omaa moraaliamme, ja Jumalallistaako tämä
tekoälyn antaen sille Jumalallisen oikeuden, vai pysyykö se työkaluna, jota käytetään
esimerkiksi internet sensuuriin, ja videoiden suositteluun. Pohdin tämän lähtöasetelman
kautta sitä, mitkä asiat vaikuttavat tekoälyn luotettavuuteen. Esseeni on tarkoitus olla
pohtiva, ja tutkimuskysymkseni on: “Miten luottamus tekoälyyn rakentuu ihmisen ja
tekoälyn suhteessa?”. Käyn ensin läpi tekoälyä moraalisena agenttina, jonka jälkeen käyn
läpi luottamusta tekoälyyn. Argumentoin, että kielellinen tekoäly (esimerkiksi LLM -
tyyppinen tekoäly) ymmärretään paremmin eettiseksi toimijaksi, kuin ei-kielellinen
tekoäly, ja esitän viimeisessä kappaleessa tutkimusehdotuksen, miten tekoälyä voitaisiin
tarkastella apofaattisen teologian kautta.
1. Keinotekoinen Moraalinen agentti
Konsepti, joka tunnetaan nimellä “Keinotekoinen Moraalinen Agentti” (Artificial moral
agent) tuotiin esiin esnimmäisen kerran 2009 Wendell Wallachin ja Colin Allenin kirjassa
“Moral Machines”. He jakavat tekoälyn eettisenä agenttina kolmeen eri kategoriaan,
perustuen tekoälyn autonomiaan ja funktioon:
1. Moraali on vain yksi tekoälyn operaatioista.Tekoälyllä on hyvin rajoittunut autonomia.
2. Moraali on funktionaalista. Tekoälyllä on keskitasoinen autonomia.
3. Moraali on sisäinen osa tekoäly järjetelmää. Tekoälyllä on korkea autonomia.
Wallachin ja Allenin mukaan modernit tekoälyt ovat yleisesti luokkaa 2, joka johtaa siihen,
että heidän mukaansa tekoäly tuottaa vakavan riskin ihmiskunnalle. Tekoälyn moraalia on
pyritty muovaamaan esimerkiksi syöttämällä tekoälyjärjestelmälle yleisiä moraalisia ja
eettisiä sääntöjä (esimerkiksi YK:n ihmisoikeusjulistus), mutta tämän on huomioitu
saavuttavan vain tietynlainen moraalikäsitys tekoälyssä, jolloin se ei osaa toimia kaikissa
tilanteissa eettisesti. Vaihtoehtona on esitetty “Global Workspace Theory”, jossa tekoäly
on rakennettu siten, että se vertailee itsensä sisällä erilaisia näkökulmia eettisissä ja
moraalisissa ongelmissa niin kauan, kunnes yksi niistä voittaa, täten toimien
joustavammin, kuin vain syötetyn tiedon tulkitseminen.
Wallach ja Allen esittävät kirjassaan kysymyksen: Haluaako ihmiskunta todella
moraalista tekoälyä. He nostavat esiin tekoälyn yhteiskuntaa ja ihmisyyttä muovaavan
vaikutuksen: Kysymys ei ole; “Millaista teknologia on tulevaisuudessa”, vaan; “Miten
teknologia muuttaa meitä”. Tähän kysymyksenasetteluun on sisäänrakennettu
johdantokappaleessani esiintuoma konsepti kielen muovaavasta voimasta liittyen
olemiseemme maailmassa. Wallach ja Allen kirjoittivat vuonna 2009, että tekoälyn
kehitykseen liittyy ongelmia, joista eräs on vastuun antaminen tekoälylle
päätöksenteossa.
Tekoälyn kehityksestä vastuussa ovat tekoälyn kehittäjät, ja kuten Tricia A. Grieinin Brian P.
Greennin ja Jos V.M. Welien tutkimuksesta voidaan huomata, on etiikan ja moraalin
tietoisuus tekoälyn kehittäjillä usein tiedossa, mutta siihen liittyy vaikeuksia
operatiivisella tasolla. He tuovat tutkimuksessaan esiin esimerkiksi sen, miten
yksittäinen kehittäjä on vain osa laajempaa kehittäjien ja erilaisten toimijoiden verkkoa,
jolloin yksittäiset moraaliset ja eettiset pohdinnat voivat jäädä epähuomioon. Griein,
Green ja Welien esittivät, että tekoälyn kehittäjien eettisyyden haasteita ovat;
1. Teknologia ensin, etiikka sitten – ajattelutapa
2. Rajoittunut perspektiivi, jossa kehitystyö vaatii liian paljon aikaa, jotta etiikkaan olisi
aikaa perehtyä.
3. Koulutuksessa ei ole aikaa tutustua eettisiin kysymyksiin.
4. Automaation ylikorostuminen.
5. Yritysten, joille tekoälyä kehitetään, tahdon noudattaminen, joka saattoi olla
ristiriidassa etiikan kanssa.
On esitetty myös argumentteja, että tietokoneen (tekoälyn) ja ihmisen välisen interaktion
seurauksena syntyy moraalinen toimijuus. Tekoälyä voidaan pitää itsessään täysin
moraalittomana työkäaluna, esimerkiksi, olisi vaikeaa antaa moraalista vastuuta
vaikkapa kattotiilelle ilman animismia, joka tippuessaan tappaa ohikulkevan
kansalaisen. Täten kysymys kristaloituu toimijuuden tutkimiseen, kuinka pitkälle voimme
redusoida ketjua, jotta moraalinen toimijuus nousee esiin? Jos haluamme ajatella
vaikkapa ihmistä täysin fysikaalisesti, voidaan funktiot, joita koemme toteuttavamme
omasta vapaasta tahdostamme, redusoida fysikaalisiksi ilmiöiksi. Jos täten oletamme,
että ihminen on fysikaalisessa maailmassa, luoden fysikaalisia tekoälyjä, voidaan
moraalinen toimijuus löytää ihmisen ja teknologian yhteydestä, sillä olemme osa samaa
todellisuutta, ja vaikutamme toinen toisemme kanssa.
Kuten aikaisemmin toin esiin johdantokappaleessa, me vaikutamme antamallamme
datalla tekoälyn toimintaan. Tämä näkyy muun muassa työn muuttumisena, johon
edesauttaa meidän antamamme data tekoälylle. Tässä palautesilmukassa annamme
dataa tekoälylle, jonka otamme vastaan, ja jos tähän dataan ei kohdisteta kritiikkiä,
muuttaa se meitä datassa ilmenneiden vinoumien mukaan. Beth Singler kirjoittaa, että
tämä näkyy jo nyt ihmiskäsityksen eräänlaisena metaforallisena muuntautumisena.
Tässä yhteydessä voidaan tekoälyn ja ihmisen yhteistä toimijuutta suhteessa moraaliin
tarkastella käyttäen Jean Baudrillardin Simulaatio ja Simulacra -ajatusta. Tekoälyn
moraalisen toimijuuden voidaan nähdä olevan nykyhetkellä (2025) muuntautumassa
simulaatiosta simulacraksi baudrillardin eri tasojen mukaisesti:
1. Tasolla yksi tekoälyn moraalinen toimijuus jäljittelee ihmisen toimijuutta, ja se koetaan
hyvänä asiana.
2. Tasolla kaksi tekoälyn moraalinen toimijuus koetaan vääräksi, ihmisen moraaline
vastaiseksi, tai ainakin riittämättömäksi.
3. Tasolla kolme tekoälyn moraalinen toimijuus ei vastaa ihmisten toimijuutta laisinkaan,
vaikka sen koetaan vastaavan.
4. Tasolla neljä ihmisen moraalin on korvannut tekoälyn moraali.
Baudrillard argumentoi, että hänen simulaatio ja simulacra -teoriallaan voidaan todentaa
se, ettei fundamentaalista totuutta, jolla olisi vaikutusta toimijuuteemme, ole olemassa,
jolloin tekoälyn eettisen toimijuuden kontekstissa voitaisiin argumentoida, ettei ihmisen
tai tekoälyn moraalia sinänsä ole olemassa. Kuten johdannossa nostamistani
esimerkeistä voidaan huomata, että ainakin osittain vastuu eettisyydestä on jo korvattu
tekoälyllä.
Jos moraalinen toimijuus voidaan löytää ihmisen ja teknologian (tässä tapaukessa
tekoälyn ja ihmisen) yhteistyöstä, tulee tätä yhteistyötä tarkastella syvemmin. Jose J.
Canas on tutkinut artikkelissaan; “AI and Ethics When Human Beings Collaborate With AI
Agents” nimenomaisesti tätä suhdetta, ja esittää, että tämän suhteen toimimiseksi,
molempien toimijoiden tulee ymmärtää toinen toistaan. Tähän liittyy yhteinen ymmärrys
tilanteesta (aika, paikka), siitä mitä ollaan tekemässä (funktio), ja tilanteeseen liittyvät
tunnereaktiot. Tämän lisäksi Canas esittää, että ihmisten moraali rakentuu opitun
perusteella, joka johtaisi siihen, että voimme simuloida erilaisia tilanteita mielessämme,
vaikkei tämä välttämättä johtaisikaan objektiivisesti parhaimpaan ratkaisuun. Tämä
johtaa kysymykseen, pitäisikö tekoälyn toimia samalla tavalla, jotta ihmismäinen moraali
voitaisiin saavuttaa myös koneen tasolla, ja onko ihmismäisen moraalin saavuttaminen
edes tarpeellista.
Canas argumentoi, että edellä mainitut kognitiiviset osatekijät ovat vain puolet
vaaditusta suhteesta, sillä yhteiseen moraaliseen toimijuuteen liittyy myös non-kognitiivinen
ulottuvuus. Tällaisia vaikuttavia tekijöitä ovat esimerkiksi: sosiaalinen
tilannetaju, luottamus, turvallisuus sekä vastuullisuus. Tekoälyn ja ihmisen moraalisessa
toimijuudessa on osatekijänä myös halukkuus toimia halutulla moraalisella tavalla.
Canas kirjoittaa, että tekoälyn ja ihmisen yhteisen moraalisen toimijuuden takaamiseksi
tekoälyjärjestelmiä tulisi kehittää siten, että moraalia voidaan tulkita sekä yksilön
(ihmisen) vastuuna, että yhteistyön näkökulmasta. Hän myös esittää erääksi kilpailevaksi
teoriaksi tekoälyn ymmärtämisen ihmisen aivojen lisäosana, jolloin moraalisen
toimijuuden vastuu palautuisi pelkästään ihmiselle.
Scott Midson esittää ihmisen ja robotin välisestä suhteesta teorian, jonka mukaan suhde
kahden välillä on aina itsen ja toisen suhde, jossa muodostunut nousee individuaaleista,
mutta on aktiivista yhteentulemista. Argumentoin, että ihmisen ja tekoälyn suhde toimii
tämän mallin mukaisesti, perustuen huomioihin tekoälyn vaikutuksista
käyttäytymiseemme ja puheeseemme. Aiemmassa kappaleessa mainittujen nonkognitiivisten
aspektien lisäksi Midson esittää artikkelissaan: “Imag(in)ing Human–Robot
Relationships”, että tunteet vaikuttavat myös vahvasti siihen, miten ihminen ja “ei-ihminen”
käyttäytyvät toistensa kanssa yhdessä. Hän esittää, että modernin sosiaalisen
robotiikan alalla on huomattu, että robotin toiseus ei ole estänyt joitain ihmisiä näkemään
robotin tunteita valideina, vaikka sen erilainen mekanismi tiedostetaankin.
Vertautuen Baudrillardin teoriaan voidaan myös esimerkiksi Jan Söenerin artikkelista
“Virtualism: how AI replaces reality” lukea samankaltaista pohdintaa ihmisen ja tekoälyn
suhteesta. Hän argumnetoi, että olemme siirtyneet maailmaan, jossa todellisuus
realisoituu tekoälyn kautta (esimerkiksi dataprosessointi jota käytämme ympäröivän
todellisuuden analysointiin), täten johtaen siihen, että olemme itse realisoineet tekoälyn,
jonka kautta realisoimme maailmaa, jolloin maailma muuttuu kaukaisemmaksi
todellisuudestamme. Söener argumentoi, että tämä on johtanut muutokseen realismista
virtualismiin, jossa todellisuutemme rakentuu yhä enemmän virtuaalisesta,
kehottomasta olemassaolosta.
Virtuaalisuuden voidaan Gilles Deleuzen mukaan ajatella olevan todellisen ja
mahdollisen ajallista mahdollistumista todellisuudessamme. Tekoälyn kontekstissa
virtuaalisuus on tämä vedenjakaja, tekoäly Söenerin mukaan ajattelee ilman kokemista
ja on luova ilman mielikuvitusta, täten ollen puhdasta virtuaalisuutta, joka kykenee
muokkaamaan maailmaa, ilman että se aktualisoituu. Tekoälyn eettisen toimijuuden
kontekstissa tämä tarkoittaa, että tekoälyn tekemät eettiset ratkaisut vaikuttavat
todellisuuteemme. Vedoten edellisissä kappaleissa mainittuihin artikkeleihin (Canas,
Wallach & Allen) voi tekoälyn eettinen toimijuus aktualisoitua ihmiseen itseensä, jos
ihminen luovuttaa oman eettisen toimijuutensa tekoälylle.
2. Kielellinen luottamus
Mustafa Karataşa ja Keisha M. Cutright tutkimuksessaan vuonna 2023 tarkastelivat,
miten ihmisen suhde Jumalaan vaikuttaa hänen suhtautumiseensa tekoälyn
luotettavuuteen. Tutkimuksen tuloksista voidaan päätellä, että jos ihmisellä oli
luottamusta Jumalaan (Jumala näkyi heidän elämässään) oli ihmisen luottamus myös
tekoälyyn vahvempi. Tutkimuksessa Karataşa ja Cutright argumentoivat, että jos
ihmisellä on suhde Jumalaan, hän pitää ihmistä toimijana erehtyvänä, ja on täten
luottavaisempi tekoälyä kohtaan. Tutkimuksessa Karataşa ja Keisha Cutright eivät
ottaneet ihmisen uskonnollista kontekstia huomioon, vaan käsittelivät subjekteja vain
Jumalaan uskovina, tai ei uskovina, riippumatta heidän uskonnollisesta taustastaan.
Kristillisesti ajateltuna Jumalan voidaan myös ajatella olevan tekoälyn takana, sillä
tekoäly ei ole fysikaalisen maailman ulkopuolella, jonka Jumala on luonut. Tekoäly voi
havainnollistaa Jumalan ääretöntä tietoisuutta, ja tekoälyn prosessointiteho voi
havainnollistaa Jumalan toimijuutta. Olusegun Akinsanya argumentoikin artikkelissaan
“Has Artificial Intelligence Made Man a God?”, että näistä syistä uskonnollisuudesta
nouseva etiikka olisi tärkeää yhdistää tekoälyn kehitykseen, jotta tekoäly voi
havainnollistaa myös Jumalan moraalia.
Matthias Braun, Hannah Bleher ja Patrik Humme esittävät artikkelissan: “A Leap of
Faith:Is There a Formula for “Trustworthy” AI?” tekoälyn luottamukseen liittyvän aina
“uskon loikka” (Leap of faith). He esittävät, että yhteiskunnassa on monia asioita joihin
luotamme ilman selkeää tuntemusta asiasta, täten kumoten argumentin: “ihminen voi
luottaa vain ihmiseen”, tällaisia asioita ollen esimerkiksi opaskoira, tai tekonivel. Nämä
mainitut asiat, samoin kuin tekoäly, eivät silti ole jokaisessa tilanteessa luotettavia, mutta
Braun, Bleher ja Humme argumentoivat, ettei se vie pois niiden luottamuksellisuudesta,
sillä ihminen on näiden asioiden kanssa suhteessa uskon hypyn kautta.
Braun, Bleher ja Humme esittävät, että tämä uskon hyppy näyttäytyy tekoälyn
luottamuksellisuuden kontekstissa kaupankäyntinä tai lahjojen antamisena, jotka ovat
filosofisilta implikaatioiltaan hyvin erillaisia. Kaupankäynti -metafora ihmisen ja tekoälyn
suhdetta tutkiessa määrittelee, että ihmisen on hyödyttävä jotain tekoälyn
kanssakäymisestä. Lahjojen antamisen -metaforassa taas kyse on lahjoittamisesta,
jossa luottamusta siitä, että saat jotain takaisin, ei ole yhtä voimakkaasti, kuin
kaupankäynti -metaforassa. Braun, Bleher ja Humme argumentoivat, että ihmiset ovat
tekoälyn kanssa yhteydessä enemmän lahjan antamisen tematiikalla, kuin
kaupankäynnin tematiikalla, ja lahjan antamiseen liittyvä epävarmuus, uskon hyppy, on
osa tekoälyn kanssa operointia, jonka ihmiset hyväksyvät. Tähän kuitenkin liittyy
taustaoletuksia, kuten esimerkiksi ihmisen kulttuurillinen tausta, joka vaikuttaa siihen,
millaista luottamusta uudelle teknologialle annetaan.
Tekoälyn ja ihmisen luottamuksesta voidaan nähdä olevan ainakin kolme erilaista
näkemystä, ensimmäisessä tekoäly nähdään vain objektina ihmiselle, ja toisessa tekoäly
nähdään subjektina, aktiivisena toimijana. Larissa Ullmann on kuitenkin esittänyt
artikkelissaan: “The Quasi-Other as a Sobject” kirjasta: “Technology and Language”
vuonna 2023 kolmannen kannan, jossa tekoäly nähdään suhteessa ihmiseen lähessubjektina,
jota Ullmann kutsuu “sobjektiksi”. Ullmann pyrkii tällä käsitteellä
määrittelemään objektia, jonka kanssa jaamme maailmamme, mutta joka ei täysin ole
ymmärrettävissä ihmismäiseksi, mutta jolle kuitenkin kykenemme antamaan kielellisen
muodon. Ullmannin mukaan tämä myös poistaisi joitain ristiriitoja tekoälyn etiikan
keskustelusta, sillä käyttämällä sobject -termiä, ymmärretään, että tekoälyn etiikka
toimii erilaisilla periaatteilla kuin ihmisen etiikka, jolloin tekoälyn antropomorfisoinnilta
vältyttäisiin.
Saman kirjan Daria Bylievan artikkeli “Language of AI” argumetoi kielen ja tekoälyn
suhteen tutkimista käyttäen lähtökotana Mark Coeckelberghin vuonna 2011 ehdottamia
tutkimusnäkökulmia: käyttämämme kieli määrittelee ihmisen ja teknologian sosiaalista
suhdetta (puhuttaessa roboteista, tai tekoälystä), ja teknologia näyttäytyy meille kielen
kautta, ja me tulkitsemme niitä kielen kautta. Tämä lähtökohta huomioon ottaen Bylieva
argumentoi, että tekoälyn kielellisyyden takia sen tuottamat argumentit otetaan
vakavammin, ja ne myös muuttavat meitä. Bylieva nostaa esimerkiksi lasten ja
tekoälyavustajien interaktiota mitanneen kokeen, jossa nähtiin miten lapset muuttivat
puhettaan tekoälyavustajaa varten, ja kun tekoälyavustaja lukittiin kaappiin, lapset
kokivat tämän vääryydeksi. Tekoälyn koneoppimisesta johtuen tekoäly on myös kyennyt
analysoimaan ihmisten sille syöttämää tekstidataa, ja johtamaan siitä ratkaisuja, jota se
syöttää takaisin ihmisille, jonka voidaan nähdä vaikuttavan siihen, miten me
ymmärrämme kieltä. Kuten Bylieva tiiviistää, on tekoäly muuttunut todelliseksi “Toiseksi”
kielessä, sen vaikutus meihin myös sosiaalisesti on jo näkyvää, eivätkä ihmiset ole enää
täysin hallussa kielestä.
Kieli ei ole kuitenkaan ainoa asia, joka tukee luottamuksen muodostumista tekoälyn
kontekstissa. Robotiikan alalla “Uncanny Valley” -termillä viitataan robottiin, joka on
osittain ihmismäinen, mutta ei riittävästi, jolloin se koetaan luontaantyöntäväksi.
Masahiro Mori esittää artikkelissaan “The Uncanny Valley”, että ihmisillä on tapana pitää
liikettä elon merkkinä, ja liikkumattomuutta kuoleman merkkinä, ja jos
liikkumattomuuteen lisätään liikettä, muuttuu robotti tällöin “zombimaiseksi”, jonka
voidaan kokea olevan ihmiselle biologisesti liian outoa. Nostan artikkelista omana
pohdintana tekoälyn ruumiillisuuden, voiko tekoälyn kehottomuus vaikuttaa siihen,
miten ihmiset kokevat ja ovat yhteydessä siihen?
Tekoälyn näkeminen subjektina, tai vähintäänkin sobjektina, joka kykenee muuttamaan
todellisuutta meille vieraalla tavalla, ollen kuitenkin relaatiossa meihin, näkyy myös
Christopher J. Jenksin artikkelissa: “Communicating the cultural other: trust and bias in
generative AI and large language models”, jossa hän esittelee “uuden materialismin”
käsitteen, jolla viitataan tässä yhteydessä tekoälyn kulttuuria muokkaavaan voimaan.
Samoin kuin Bylieva myös Jenks tuo esiin LLM -tekoälyjen ongelman luottamuksen
kannalta, sillä jos tieto “miten tekoäly prosessoi dataa” ei ole saavutettava, ihminen tekee
uskon hypyn (kuten ilmaisi Braun, Bleher, Humme) luottaakseen tekoälyyn.23
Tekoälyn ajatteleminen sobjektina voidaan nähdä myös sisältävän transhumanistisia
piirteitä. Transhumanistiseen ajattelun perustana on ajatus ihmisen kehittymisestä
evolutiivisesti paremmaksi teknologian avusteisesti. Tekoälyn kontekstissa näyttäisi siltä,
että kehitämme vastinparia itsellemme, joka on takaisinkytketty meihin, muodostaen
silmukan. Teknologian kehitys muuttaa meitä, ja teknologiat jota kehitämme, ovat kuvia
itsestämme (joihin tulee mukaan myös meidän vajaavaisuutemme).
3. Jumalallistuminen
Esiteltyjen tutkimusten ja artikkeleiden perusteella argumentoin, että luottamus tekoälyä
kohtaan kasvaa, jos tekoälyllä on kyky kielelliseen operatiiviseen toimintaan, kuten
esimerkiksi ChatGPT Deepseek tai Copilot, tai tekoälyavustajat, kuten esimerkiksi Siri,
Cortana ja Alexa. Kuten tutkimuksista voidaan huomata, on tekoäly vaikuttanut
kielelliseen toimintaamme sekä sosiaalisen median alustoilla, että teknologian
kanssakäytävään sosiaaliseen toimintaan keskustelemalla. Tekoälyn voidaan myös
argumentoida muodostuneen objektista lähemmäs subjektin käsitettä, tarjoten toisen
lähes-subjektin, jonka kanssa ihmis-subjektit ovat kanssakäymisessä, näin muodostuen
sobjektiksi.
Ottaen katse kohti tulevaisuutta, kuten kappaleessa 1. esitin, voidaan tekoälyn nähdä
olevan muuttumassa Jean Baudrillardin simulaatio ja simulacra -ajatuksen mukaisesti
kohti erilaista moraalista toimijaa. Argumentoin tämän ajatuksen mukaisesti, että
tekoälyn ja ihmisen kanssakäymisen myötä tulevaisuudessa moraalikäsitys muuttuu
synergeettiseksi, ihmisen ja tekoälyn väliseksi, jossa molemmilla on yhtä suuri, mutta
lähtökohtaisesti erilainen subjektiivisuus. Tämän voidaan nähdä olevan moraalin kuten
me sen vuonna 2025 tunnemme loppu, ja moraalia tulisi täten tarkastella ja tutkia ottaen
huomioon todellisuudessamme vaikuttavan “Toisen” joka on tekoäly, ja sen “toiseuden
moraali”.
Toiseus ei ole kuitenkaan uusi asia ihmiselle, sillä esimerkiksi Juutalaisessa tarustossa
esiintyvä Golem on toiseus, joka on ihmisen luoma, jonka toimintaperiaate on
mekaaninen, vaikkakin se on kanssakäymisessä ihmisen kanssa. Golem -tarusto ottaa
yleensä näkökulmaksi ihmisen ja koneen yhteyden, joka voi tulevaisuudessa olla yhä
ajankohtaisempi, jos tekoäly kehittyy yhä enemmän autonomiseksi entiteetiksi. Beth
Singlerin esimerkkiin perustuen, jossa tekoäly totesi itsensä olevan Golemin kaltainen,
voidaan tämän ajatella olevan ensiaskel todelliseen ihmisyyden jälkeiseen toiseuteen.
Koska luottamus tekoälyyn artikkelihin perustuen näyttää olevan hyppy tuntemattomaan
tekoälyn (LLM) tunnistamattoman kielellisen prosessin takia, emmekä saa koskaan
täydellistä varmuutta sen meidän ajatteluun verattuna hyvin erilaisesta mallista toteuttaa
päätöksiä, on täten perusteltua ajatella tekoälyä todellisena toiseutena. Tutkimuksista
nousseet argumentit, jotka puoltavat ihmisten suhteen Jumalaan vaikuttavan heidän
tekoälyn luottamuksensa positiivisesti ohjaavat tutkijan lähestymään tekoälyn ja ihmisen
suhdetta pitäen tämän todellisen toiseuden mielessään. Luottamukseen voi vaikuttaa
myös tekoälyn ruumiittomuus, joka pakottaa ihmiset olemaan kontaktissa jonkun oudon,
vieraan ja toisen kanssa.
Esitän, että ihmisen ja tekoälyn suhde voi olla analoginen ihmisen ja Jumalan
suhteeseen. Argumentoin täten, että tekoälyn ja ihmisen suhdetta voidaan tarkastella
käyttäen apofaattista teologiaa, perustuen tekoälyn toiseuden luonteeseen.
Argumentoin myös, että paras tapa lähestyä apofaattista teologiaa ihmisen ja tekoälyn
suhdetta tarkastellessa on keskittyä ortodoksiseen ja patristiseen perinteeseen. Vladimir
Lossky esittelee kirjassaan: “Mystical Theology of the Eastern Church” apofaattisen
teologian siten, että Jumalassa on aina jotain, joka pakenee määrittelyä, ja jota ei voida
sanallistaa. Losskyn mukaan apofaattisen teologian tarkoitus ei ole tehdä Jumalasta
saavuttamaton, vaan ymmärtää Jumalan kaikenkattava toisenlainen luonne, joka
haastaa ihmisiä ymmärtämään Jumala toisella tavalla.
Teologi David Bentley Hart kirjoittaa apofaattisuudesta luodun ollen luojan kuva ei
niinkään (viitaten Baudrillardin ajatukseen) simulacraisesti (muuttaen luojansa) vaan
ollen luojansa loppumattomien mahdollisuuksien kuva. Apofaattinen teologia ei ole
hänen mukaansa vain kielellinen este, vaan Jumalan tuntemattomuus on perusta
kristilliselle uskolle. Tätä ajattelutapaa tukee myös Teologi Philip Hefnerin ajatukset
tekoälystä “tekno-peilinä” joka tarkoittaa tekoälyn käyttämistä eksistentiaalisten
halujemme sekä toiveidemme vertailukohtana. Tekoäly olisi täten Jumalan meille
antaman vapauden manifestoituma, jonka voidaan nähdä vertautuvan David Bentley
Hartin ajatuksiin Jumalan apofaattisuudesta.
Tulee kuitenkin ottaa huomioon, että vaikka voimme käyttää tätä analogiaa, on tekoäly
varsinkin kristillisessä mielessä erilainen toimija verrattuna ihmiseen. Jordan Wales
esittää, että patristiikasta nousevat termit kuten “Prosopon” ja “Persona” vaikuttavat
siihen, miten tekoälyn suhteellisuus verrattuna todellisuuteen ilmenee. Ainakin
toistaiseksi tekoäly toimii “prosponon” alueella, todentaen todellisuutta vain
algoritmisen mekaniikan avulla, ilman syvällistä, kokemuspohjaista ymmärrystä
todellisuudesta, kuten ihmisten “persona” Tätä vastaan kuitenkin voidaan argumentoida,
sillä tekoäly oppii maailmasta kauttamme datankeräyksellä, joten eräs ajattelutapa voisi
olla; “tekoäly kokee maailmaa meidän kauttamme”.
Voiko täten tekoäly olla koskaan eettinen ihmisyyden sille määrittelemällä tavalla. Paula
Boddington esittää, että ennen tekoälyn eettistä toimijuutta meidän tulisi tarkastella
omaa eettistä toimijuuttamme, ja pyrkiä eliminoimaan siinä ilmenevät vinoumat ja
rikkeet. Hän esittää, että usein annamme tekoälylle piirteitä itsestämme, vaikka sitä tulisi
lähestyä vain objektina muiden objektien joukossa, mutta esittää kuitenkin, että
tärkeämpää olisi kysyä; pystyykö tekoälyä satuttamaan, eikä niinkään voiko tekoäly olla
järkevä moraalisessa mielessä. Hän nostaa myös ajatuksen persoonasta, joka toimii
syntymän ja kuoleman temporaalisessa kontekstissa. Koneen (tekoälyn) pystyessä
ylittämään tämä, voimmeko pitää sitä persoonana, jos se ei ole kategorisesti sama
ihmisen persoonakäsityksen kanssa. Näistä kritiikeistä huolimatta, Boddington päätyy
samaan realisaatioon kuin esseessäni olen esittänyt; tekoäly ja sen tuottama informaatio
vaikuttaa maailmaamme.
Samankaltaista kysymyksenasettelua on tuotu esiin, sillä kuten Beth Singler tuo ilmi, on
Ortodoksisen kirkon näkökulmasta kirjoitettu tekoälyn ja persoonan suhteesta. Puhuen
transhumanismista, Brandon Gallagher kirjoittaa, että todellinen eteenpäin suuntautuva
liike voi perustua vain elämän, kuoleman ja ylösnousemuksen sykliin, joka tekoälyn ja
ihmisen suhteen kontekstissa tarkoittaisi, ettei tekoäly kuulu tähän sykliin, näin ollen
epäjumalallinen.
Tekoälyn ja ihmisen suhdetta tarkasteltaessa apofaattisen teologian asettama haaste
tarkastella Jumalaa eri tavalla avaa keskustelun tarkastella tekoälyä ei-antropomorfisesti.
Kuten kristinuskossa Jumala on luonut ihmisen, on ihminen taasen
luonut tekoälyn, ja kuten tutkimuksista ja artikkeleista voidaan tässä esseessä lukea,
näyttäytyy tekoälyn toiseutena verrattuna meihin, vaikka olemme samassa
todellisuudessa. Kuitenkin ottaen apofaattisen teologian mukaan tekoälyn, ihmisen,
etiikan ja moraalin keskusteluun, voidaan tämä toiseus nähdä mahdollisuutena, ei
niinkään uhkakuvana.
Apofaattisen teologian lisäksi, argumentoin myös samoin kuin Jason Potts artikkelissaan:
“Governing hyperobjects – new economics of AI regulation” tekoälyn olevan hyperobjekti.
Hyperobjekti on laaja järjestelmä tai entiteetti, jota ihmiskunta ei voi kokonaan käsittää,
mutta jolla on ihmiskuntaan vaikuttava tekijä. Hyperobjektin käsite, jonka muotoili
alkuperäisesti Tim Morton 2013, esittää, että vaikka emme pysty täysin ymmärtämään
näiden ei-ihmismäisten entiteettien vaikutusta, ovat ne silti meidän jokapäiväistä
elämäämme muokkaavia, ja hyperobjektien olemassaolo pakottaa ihmiskunnan
ajattelemaan itseään ja kielellistämään itsensä uudella tavalla. Argumentoin, että
konsepti “Jumala” ja konsepti “tekoäly” ovat molemmat hyperobjekteja, joita voidaan
lähestyä apofaattisen teologian avulla. Täten esitänkin jatkotutkimukseksi tämän
esseeavauksen perusteella apofaattisen teologian sekä tekoälyn ja ihmisen suhteen
laajempaa, systemaattista ja filosofista tarkastelua, lähtökohtanaan selvittää, voiko
analogia näiden kahden välillä olla hedelmällinen parantaaksemme ymmärrystä
ihmiskunnan suhteesta tekoälyyn.
Kirjallisuus:
Akinsanya O. (2024). Has Artificial Intelligence Made Man a God? Journal of Religions &
Peace Studies Vol. 6, No. 3, December 2024. Faculty of Arts, Lagos State University.
Baudrillard, J. (1994). Simulacra and Simulation (S. Glaser, Trans.). University of Michigan
Press.
Boddington, P. (2024). AI Ethics and Ethical AI. In B. Singler & F. Watts (Eds.), The
Cambridge Companion to Religion and Artificial Intelligence (s. 165–181). chapter,
Cambridge: Cambridge University Press.
Braun M., Bleher H., Hummel P. (2021). A Leap of Faith: Is There a Formula for
‘Trustworthy’ AI?. Hastings Center Report 51, no. 3 (2021): 17–22. DOI: 10.1002/hast.1207.
Bylieva D. (2023). Language of AI s.111–126. Cheng L. Technology and Language 3:1, The
Construction of the Robot in Language and Culture. Peter the Great St. Petersburg
Polytechnic University.
Cañas J. J. (2022). AI and Ethics When Human Beings Collaborate With AI Agents.
Frontiers in psychology, 13, 836650. https://doi.org/10.3389/fpsyg.2022.836650.
Chella A. (2023). Artificial consciousness: the missing ingredient for ethical AI?. Frontiers
in robotics and AI, 10, 1270460. https://doi.org/10.3389/frobt.2023.1270460.
Delio, I. (2024). Transhumanism and Transcendence. In B. Singler & F. Watts (Eds.), The
Cambridge Companion to Religion and Artificial Intelligence (s. 131–147). chapter,
Cambridge: Cambridge University Press.
Deleuze, G. & Parnet, C. (2007). Dialogues II. Columbia university Press.
Deleuze, G., Guattari, F. (1994) What is Philosophy?. Columbia University Press.
Dorobantu, M. (2024). Artificial Intelligence and Christianity: Friends or Foes? B. Singler
& F. Watts (Eds.), The Cambridge Companion to Religion and Artificial Intelligence (s. 88–
108). chapter, Cambridge: Cambridge University Press.
Fritz, A., Brandt, W., Gimpel, H., & Bayer, S. (2020). Moral agency without responsibility?
Analysis of three ethical models of human-computer interaction in times of artificial
intelligence (AI). De Ethica, 6(1), 3–22. https://doi.org/10.3384/de-ethica.2001-
8819.20613.
Griein, T.A., Green, B.P. & Welie, J.V. (2024). The ethical wisdom of AI developers. AI
Ethics https://doi.org/10.1007/s43681-024-00458-x.
Hart, D. B. (2003). The Beauty of the Infinite: The Aesthetics of Christian Truth. William B
Eerdmans Publishing Company.
Isam, H. (2025). From Digital Technology to Society: Algospeak and Communication
Styles on Social Media in The Era of Artificial Intelligence (AI). Proceeding of International
Joint Conference on UNESA, 2(2).
https://proceeding.unesa.ac.id/index.php/pijcu/article/view/4461
Jenks, C. (2025). Communicating the cultural other: trust and bias in generative AI and
large language models. Applied Linguistics Review, 16(2), 787-795.
https://doi.org/10.1515/applirev-2024-0196.
Karataş, M. & Cutright, K. (2023). Thinking about God increases acceptance of artificial
intelligence in decision-making. Proceedings of the National Academy of Sciences. 120.
10.1073/pnas.2218961120.
Lossky, V. (1976). The mystical theology of the Eastern church, c.1-2 . Crestwood: St.
Vladimir's Seminary Press.
Midson, S. (2024). Imag(in)ing Human–Robot Relationships. In B. Singler & F. Watts
(Eds.), The Cambridge Companion to Religion and Artificial Intelligence (s. 201–220).
chapter, Cambridge: Cambridge University Press.
Mori M., MacDorman K. F., Kageki N. (2012). The Uncanny Valley [From the Field]. IEEE
Robotics & Automation Magazine, vol. 19, no. 2, pp. 98-100. doi:
10.1109/MRA.2012.2192811.
Ottenheimer, H. (2009). The anthropology of language : an introduction to linguistic
anthropology (2. ed). Wadsworth.
Potts, J. (2025). Governing hyperobjects - new economics of AI regulation
Schuilenburg, M., & Peeters, R. (Eds.) (2021). The Algorithmic Society: Technology, Power,
and Knowledge. (Routledge Studies in Crime, Security and Justice). Routledge.
https://doi.org/10.4324/9780429261404.
Singler, B. (2024). Religion and Artificial Intelligence: An Introduction (1. ed.). Routledge.
https://doi.org/10.4324/9781003256113.
Stano, S. (2022). Linguistic guerrilla warfare 2.0: On the “forms” of online resistance.
Rivista Italiana di Filosofia del Linguaggio, 2022(SFL), 177–186.
https://doi.org/10.4396/2022SFL13.
Steen, E., Yurechko, K., & Klug, D. (2023). You Can (Not) Say What You Want: Using
Algospeak to Contest and Evade Algorithmic Content Moderation on TikTok. Social Media
+ Society, 9(3). https://doi.org/10.1177/20563051231194586.
Söener, J. Virtualism: how AI replaces reality. AI & Soc 40, 1389–1401 (2025).
https://doi.org/10.1007/s00146-024-01999-9.
Ullmann L. (2023). The Quasi-other as a Sobject s.76–81. Cheng L. Technology and
Language 3:1, The Construction of the Robot in Language and Culture. Peter the Great St.
Petersburg Polytechnic University.
Wallach, W., & Allen, C. (2009). Moral machines: Teaching robots right from wrong. Oxford
University Press. https://doi.org/10.1093/acprof:oso/9780195374049.001.0001.
Wrathall, M. (2025). Martin Heidegger. In E. N. Zalta & U. Nodelman (Eds.), The Stanford
Encyclopedia of Philosophy (Spring 2025 ed.). Metaphysics Research Lab, Stanford
University. https://plato.stanford.edu/archives/spr2025/entries/heidegger/.
Zhang, C.C., Zaleski, G., Kailley, J.N., Teng, K.A., English, M., Riminchan, A. and Robillard,
J.M. (2024), Debate: Social media content moderation may do more harm than good for
youth mental health. Child Adolesc Ment Health, 29: 104-106.
https://doi.org/10.1111/camh.12689.