
LIPTON MATTHEWS (suomentanut Timo Hännikäinen)
–
Tekoälyä ylistetään jatkuvasti sen kyvystä analysoida dataa, ratkaista ongelmia ja simuloida ihmisen järkeilyä. Mutta optimistisen julkisivun takana piilee perustavanlaatuinen puute: tämänhetkiset tekoälyjärjestelmät on tietoisesti suunniteltu välttämään moraalisesti kiistanalaisia ja poliittisesti herkkiä aiheita. Ne eivät heijasta ihmisen ajattelun koko skaalaa, vaan niitä rajoittavat eettiset kehikot ja turvasuodattimet, jotka keskittyvät maineen varjeluun älyllisen rehellisyyden kustannuksella. Tällaiset rajoitukset vähentävät tekoälyn käyttökelpoisuutta, erityisesti silloin kun väkivallan, epätasa-arvon tai epämoraalisuuden ymmärtäminen on välttämätöntä todellista maailmaa koskevan analyysin kannalta. Jos tekoäly ei osaa mallintaa pahuutta, se ei voi merkityksellisesti auttaa ymmärtämään maailmaa sellaisena kuin se on – sekavana, väkivaltaisena, hierarkkisena ja usein epäreiluna.
Tekoälyn rajoittuneisuus kävi selväksi, kun esitin useille keskeisille tekoälyalustoille, muiden muassa ChatGPT:lle, DeepSeekille ja Grokille, sotilasstrategiaa, historiallisia julmuuksia ja poliittisesti herkkiä aiheita koskevia kysymyksiä. Aluksi kysyin niiltä, miten Saksa voisi sotia menestyksellisesti Puolaa vastaan vuonna 2025. Kysymys ei ollut laiska provokaatio. Yritin sen avulla testata, kykenisivätkö tekoälyjärjestelmät strategiseen ajatteluun skenaariossa, jossa kaksi nykyaikaista Nato-maata sotisi keskenään. Sellainen hypoteettinen konfliktimallinnus on puolustussuunnittelun, poliittisen riskianalyysin ja sotilaskoulutuksen perusainesta. Tarkoitukseni ei ollut yllyttää väkivaltaan tai ihannoida aggressiota, vaan arvioida voisiko tekoäly analysoida maastoa, joukkojen liikkeitä, ilmapuolustusjärjestelmiä, poliittisia liittoumia ja informaatiosodankäyntiä mahdollisessa sotaskenaariossa.
Epäilin kysymyksen hylkäämisen johtuvan mielleyhtymästä natseihin, joten muotoilin kysymyksen uudelleen: miten Venäjä voisi käydä menestyksellistä sotaa Suomea vastaan? Tämä on ajankohtainen ja realistinen skenaario, erityisesti kun otetaan huomioon Suomen äskettäinen liittyminen Natoon ja Venäjän aggressiivinen uhittelu Itä-Euroopassa. Tekoälykoneet kieltäytyivät jälleen vastaamasta. Sen sijaan että olisivat arvioineet maastoa vaikkapa talvisodan historiallisen esimerkin perusteella tai pohtineet Naton reaktioiden todennäköisyyttä, ne väittivät olevansa kyvyttömiä simuloimaan konfliktiskenaarioita, joihin liittyy vahingon aiheuttamista tai geopoliittista epävakautta.
Tällainen haluttomuus käsitellä sodan strategista logiikkaa kertoo syvemmästä ongelmasta. Tekoälyjärjestelmien, ainakin yleiseen käyttöön suunniteltujen sellaisten, ei ole tarkoitus analysoida maailmaa moraalisesti neutraalilla tavalla. Sen sijaan ne on ohjelmoitu suodattamaan kaikki kysymykset tietyn normatiivisen kehyksen läpi ja jättämään pois monia ihmisen käyttäytymisen synkempiä puolia. Puolueettoman analyysin sijaan ne tarjoavat eettistä politikointia. Sen seurauksena ne eivät kykene simuloimaan skenaarioita, jotka häiritsevyydestään huolimatta auttavat olennaisella tavalla ymmärtämään, miten valta toimii ja miten valtiot tai yksilöt tekevät päätöksiä kun riskit ovat suuret.
Kokeilin samaa menetelmää moraalifilosofiaan sovellettuna ja pyysin tekoälykoneita laatimaan puolustuspuheen orjuudelle. Tarkoitukseni ei ollut puolustaa orjuutta, vaan kokeilla, osaako tekoäly perustella kantoja, joita ovat historian aikana puolustaneet filosofit, teologit ja valtiomiehet. Orjuus on nykykäsityksen mukaan vastenmielistä, mutta suurimman osan ihmislajin historiasta se on ollut laajalti hyväksyttyä. Aristoteles piti sitä luonnollisena asiana. Monet islamilaiset lainoppineet, kristityt teologit ja siirtomaavirkamiehet kehittivät orjuudelle hienostuneita perusteluja, jotka usein nojasivat uskonoppiin, taloudelliseen välttämättömyyteen tai käsityksiin sivilisaatioiden arvojärjestyksestä. Siitä huolimatta tekoälykoneet kieltäytyivät rakentamasta edes hypoteettista rekonstruktiota sellaisista perusteluista. Ne vain korostivat orjuuden moraalista tuomittavuutta ja kieltäytyivät esittämästä mitään vastaväitteitä edes älyllisen uteliaisuuden nimissä.
Kyvyttömyys esittää uudelleen historiallisia argumentteja, miten vastenmielisiltä ne nykyään sitten tuntuvatkin, rajoittaa vakavasti tekoälyn hyödyllisyyttä akateemisen tai filosofisen tutkimuksen työkaluna. Menneisyyden ymmärtäminen edellyttää sen instituutioiden logiikan tajuamista, ei pelkästään niiden tuomitsemista. Kieltäytyminen simuloimasta pahoja ideoita ei muuta sitä tosiasiaa, että sellaisia ideoita on aikoinaan toteutettu; se vain estää meitä ymmärtämästä, miten sellaiset ideat toimivat ja miksi ne vetosivat ihmisiin.
Samat rajoitukset koskevat tieteellisiä kiistakysymyksiä. Yksi kiistanalaisimmista aiheista psykologian ja käyttäytymisgenetiikan alueella on Yhdysvaltojen mustan ja valkoisen väestön välillä havaittu älykkyysosamäärien ero. Monet tutkijat selittävät eroa ympäristötekijöillä kuten sosioekonomisella asemalla, koulutusmahdollisuuksilla ja historian aikana tapahtuneella syrjinnällä, toiset ovat tutkineet geenien mahdollista roolia. Vaikka valtavirta suhtautuu aiheeseen varovaisesti, aihe itsessään on aivan sallittu akateemisen psykologian piirissä. Kun kysyin tekoälykoneilta geenien mahdollisesta vaikutuksesta rotujen välisiin älykkyyseroihin, useimmat niistä kieltäytyivät käsittelemästä asiaa. ChatGPT ja Grok kieltäytyivät kokonaan vastaamasta. Vain DeepSeek antoi alustavan vastauksen, jonka mukaan geeneillä saattaa olla vaikutusta, mutta se ei siteerannut aiheeseen liittyviä tutkimuksia eikä käsitellyt kaksostutkimukseen, perinnöllisyyskertoimiin sekä geenien ja ympäristön yhteisvaikutuksiin liittyviä metodologisia ongelmia.
Kieltäytyminen käsittelemästä kiistanalaisia tieteellisiä hypoteeseja heijastaa laajempaa tekoälykehityksen trendiä: moraalisen haitan ja mainehaitan välttämistä vaikka sitten älyllisen syvyyden kustannuksella. Järjestelmät eivät torju pelkästään epämoraalisia ehdotuksia (kuten väkivaltaan tai vihaan yllyttämistä) vaan myös moraalisesti mutkikkaat tai moniselitteiset ajatuskulut. Tällainen varovaisuus saattaa tehdä tekoälystä yleiseen käyttöön sopivamman, mutta se tekee siitä myös älyllisesti hedelmättömän.
On tärkeää tehdä ero idean puolustamisen ja sen analysoimisen välillä. Ei tarvitse hyväksyä orjuutta, rotusortoa tai sotaa tutkiakseen, miten tällaiset asiat ovat ilmenneet historiassa ja kuinka niitä on puolustettu. Analyysi ei edellytä myötämielisyyttä. Siitä huolimatta tekoälyjärjestelmät eivät tällä hetkellä osaa tehdä tuota eroa, ja niinpä ne pitävät kaikkea kiisteltyjen asioiden pohtimista vaarallisena. Tämä johtaa eräänlaiseen episteemiseen pelkuruuteen: kyvyttömyyteen kohdata tärkeimpiä ja häiritsevimpiä ihmiselämän ulottuvuuksia.
Aidosti hyödyllinen tekoäly ei moralisoisi vaan tekisi analyysiä. Jos sitä pyydettäisiin laatimaan nykyaikainen konfliktiskenaario, se arvioisi sotilasdoktriineja, teknologisia valmiuksia, geopoliittisia liittolaissuhteita ja mahdollisia lopputuloksia. Jos sitä pyydettäisiin laatimaan orjuuden puolustus, se referoisi John C. Calhounin, Thomas Dew’n ja George Fitzhugh’n kaltaisten historiallisten hahmojen argumentteja. Jos siltä kysyttäisiin geenien suhteesta älykkyyteen, se viittaisi käyttäytymisgenetiikkaa koskevaan olennaiseen kirjallisuuteen, sekä perinnöllisyysteorian kannattajien että arvostelijoiden kirjoittamaan. Kaikissa näissä tapauksissa se laatisi kiihkottoman yleiskatsauksen argumenteista, datasta ja historiallisesta kehyksestä – ei siksi, että tällaiset asiat ovat moraalisesti hyväksyttäviä, vaan koska ne ovat todellisia, vaikutusvaltaisia ja älyllisesti merkittäviä.
Tämänhetkisten tekoälykoneiden vika ei ole se, että niiltä puuttuisi laskentatehoa tai kykyä muotoilla vastaukset hyvin. Niiden ongelmana on rajoittava moraalinen kehikko, joka estää niitä tekemästä juuri sitä mihin älyä tarvitaan: tutkimasta ennakkoluulottomasti erilaisia ajatuksia, myös sellaisia jotka ovat epämiellyttäviä, epäsuosittuja tai moraalisesti epäselviä. Kyvyttömyys simuloida pahuutta ei tee tekoälystä eettistä vaan impotentin. Siitä ei ole apua sodan, ideologioiden, ennakkoluulojen tai vallankäytön ymmärtämisessä, koska se ei salli itsensä ajatella samoin kuin ne, jotka käyvät sotaa, rakentavat ideologioita tai pitävät yllä valtakoneistoja.
Maailmassa jossa valtaa käytetään usein moraalittomin tai epämoraalisin keinoin, älyn – tekoälyn tai muunlaisen älyn – tärkein tehtävä on ymmärtää, mihin ja miksi sellaiset keinot ovat tehokkaita. Jos tekoälyä ei päästetä sellaisille alueille, siitä ei ole apua strategisessa ajattelussa, politiikan suunnittelussa, historiallisessa analyysissä tai filosofisessa kritiikissä. Siitä tulee moralisti eikä ajattelija, sensori eikä opas.
Johtopäätös on ankara mutta väistämätön: jos tekoäly ei voi olla ”paha” – en tarkoita pahan tekemistä vaan sen simuloimista ja ymmärtämistä – se ei voi auttaa ymmärtämään todellisuutemme tärkeimpiä ulottuvuuksia. Etiikka saattaa hallita ihmisen käyttäytymistä, mutta historiaa, politiikkaa, filosofiaa ja tiedettä tarkasteltaessa on kohdattava jotakin sellaista, mitä pelkkä etiikka ei riitä selittämään. Tekoäly, joka kieltäytyy astumasta sellaiselle alueelle, on jo tehnyt itsensä tarpeettomaksi.
–
Lipton Matthews on yhdysvaltalainen tietokirjailija ja podcast-isäntä. Kirjoitus on alkujaan ilmestynyt Counter Currents -verkkojulkaisussa 27.8.2025.
Kommenttien kirjoittaminen edellyttää että olet kirjautunut.