Optimismin, ylilyönnin, tietoisuuden rajoista ja pettymysten keskellä tekoälyjärjestelmien vaikutus on edelleen rajallista.

Tekoäly (AI) esitetään usein seuraavana vallankumouksena, joka muuttaa elämämme. ChatGPT:n lanseerauksen jälkeen vuonna 2022 generatiiviset tekoälyt ovat herättäneet todellista innostusta maailmanlaajuisesti. Vuonna 2023 NVidia, keskeinen toimija tekoälymallien kouluttamiseen käytettävien sirujen valmistuksessa, ylitti 1 000 miljardin dollarin markkina-arvon. Ja se ylittää seuraavana vuonna 3 000 miljardia dollaria.
Kuitenkin tämä innostus tuo mukanaan epäilyksiä. Vaikka tekoäly on mediassa keskiössä, sen konkreettinen taloudellinen vaikutus on vaatimaton ja sen hyväksyntä yrityksissä rajallista. Tuore tutkimus arvioi, että vain 5 % yrityksistä käyttää aktiivisesti tekoälyteknologioita prosesseissaan, olipa kyseessä generatiivinen tekoäly, ennakoiva analytiikka tai automaatiojärjestelmät. Joissakin tapauksissa tekoälyä syytetään jopa siitä, että se vie johtajien huomion kiireellisemmistä operatiivisista haasteista.
Tämä odotusten ja konkreettisten tulosten välinen kuilu herättää kysymyksen: onko tekoäly yksinkertaisesti keskellä "hypen sykliä", jossa liiallinen innostus seuraa nopeasti pettymys, kuten on nähty muiden teknologioiden kohdalla 90-luvulta lähtien? Vai näemmekö todellista kiinnostuksen vähenemistä tätä teknologiaa kohtaan?
Tekoälyn alkuajoista ChatGPT:hen: optimismin ja kysymysten aallot
Tekoälyn historia on täynnä optimismin ja skeptisyyden syklejä. Jo 50-luvulla tutkijat kuvitteleva tulevaisuuden, jossa koneet pystyvät ajattelemaan ja ratkaisemaan ongelmia yhtä tehokkaasti kuin ihmiset. Tämä innostus johti kunnianhimoisiin lupauksiin, kuten järjestelmien luomiseen, jotka pystyvät automaattisesti kääntämään mitä tahansa kieltä tai ymmärtämään ihmiskieltä täydellisesti.Kuitenkin nämä odotukset osoittautuivat epärealistisiksi aikakauden teknologisten rajoitusten vuoksi. Ensimmäiset pettymykset johtivat "tekoälyn talviin" 70-luvun lopulla ja sitten 80-luvun lopulla, jolloin rahoitus laski teknologioiden kyvyttömyyden vuoksi täyttää esitetyt lupaukset.
90-luku merkitsi kuitenkin tärkeää käännekohtaa kolmen keskeisen tekijän ansiosta: big datan räjähdys, laskentatehon kasvu ja tehokkaampien algoritmien synty. Internet helpotti massiivisten tietomäärien keräämistä, mikä on olennaista koneoppimismallien kouluttamiseksi. Nämä laajat tietojoukot ovat ratkaisevia, koska ne tarjoavat tarvittavat esimerkit, jotta tekoäly voi "oppia" ja suorittaa monimutkaisia tehtäviä. Samanaikaisesti prosessorien kehitys mahdollisti edistyneiden algoritmien, kuten syvällisten neuroverkkojen, toteuttamisen, jotka ovat syväoppimisen perustana. Ne ovat mahdollistaneet tekoälyjen kehittämisen, jotka pystyvät suorittamaan aiemmin saavuttamattomia tehtäviä, kuten kuvantunnistusta ja automaattista tekstin generointia.
Nämä lisääntyneet kyvyt ovat herättäneet toiveita nähdä vallankumous, jota alan pioneerit ennustivat, tekoälyjen ollessa kaikkialla ja tehokkaita monenlaisissa tehtävissä. Kuitenkin niihin liittyy merkittäviä haasteita ja riskejä, jotka alkavat hillitä tekoälyyn liittyvää innostusta.
Teknisten rajoitusten asteittainen tunnistaminen, joka vaikuttaa nykyään tekoälyn tulevaisuuteen
Viime aikoina tekoälyn kehityksestä huolehtivat toimijat ovat tulleet tietoisiksi nykyisten järjestelmien rajoituksista, jotka voivat hidastaa niiden hyväksyntää ja rajoittaa odotettuja tuloksia.Ensinnäkin syvälliset oppimismallit ovat usein "mustia laatikoita" monimutkaisuutensa vuoksi, mikä tekee niiden päätösten selittämisestä vaikeaa. Tämä läpinäkymättömyys voi vähentää käyttäjien luottamusta, rajoittaen hyväksyntää eettisten ja oikeudellisten riskien pelon vuoksi.
Algoritmiset ennakkoluulot ovat toinen merkittävä haaste. Nykyiset tekoälyt käyttävät valtavia tietomääriä, jotka harvoin ovat vapaita ennakkoluuloista. Tekoälyt toistavat näin ollen näitä ennakkoluuloja tuloksissaan, kuten esimerkiksi Amazonin rekrytointialgoritmin tapauksessa, joka syrji systemaattisesti naisia. Useat yritykset ovat joutuneet perääntymään havaittujen ennakkoluulojen vuoksi järjestelmissään. Esimerkiksi Microsoft vetäytyi chatbotistaan Tay, kun se tuotti vihamielisiä kommentteja, kun taas Google keskeytti kasvojentunnistusvälineensä, joka oli vähemmän tehokas värillisiä henkilöitä kohtaan.
Nämä riskit tekevät joistakin yrityksistä haluttomia hyväksymään näitä järjestelmiä, peläten vahingoittavansa mainettaan.
Tekoälyn ekologinen jalanjälki on myös huolestuttava. Edistyneet mallit vaativat paljon laskentatehoa ja aiheuttavat valtavan energiankulutuksen. Esimerkiksi suurten mallien, kuten GPT-3, kouluttaminen tuottaisi yhtä paljon CO₂:ta kuin viisi edestakaista matkaa New Yorkista San Franciscoon. Ilmastonmuutoksen torjunnan kontekstissa tämä kyseenalaistaa näiden teknologioiden laajamittaisen käyttöönoton merkityksen.
Yleisesti ottaen nämä rajoitukset selittävät, miksi jotkut alkuperäiset odotukset, kuten luotettavan ja laajamittaisen automaation lupaus, eivät ole toteutuneet täysin ja kohtaavat konkreettisia haasteita, jotka voivat hillitä innostusta tekoälyä kohtaan.
Kohti mitattua ja säädeltyä tekoälyn hyväksyntää?
Tekoäly, joka on jo hyvin integroitu arkeemme, vaikuttaa liian juurtuneelta häipyäkseen, mikä tekee "tekoälyn talven" kaltaisista ilmiöistä epätodennäköisiä, kuten 70- ja 80-luvuilla. Sen sijaan, että tämä teknologia vähenisi pysyvästi, jotkut tarkkailijat puhuvat pikemminkin kuplan syntymisestä. Ilmoitusten vaikutukset, joita on vahvistettu toistuvalla "vallankumous" -termin käytöllä, ovat todellakin edistäneet usein suhteettoman innostuksen syntyä ja tietynlaisen kuplan muodostumista. Kymmenen vuotta sitten se oli koneoppiminen; tänään se on generatiivinen tekoäly. Eri käsitteitä on vuorotellen popularisoitu, jokainen lupaa uuden teknologisen vallankumouksen.Kuitenkin nykyaikaiset tekoälyt ovat kaukana "vallankumouksesta": ne ovat jatkoa aikaisemmille tutkimuksille, jotka ovat mahdollistaneet kehittyneiden, tehokkaiden ja hyödyllisten mallien kehittämisen.
Kuitenkin tämä monimutkaisuus tuo mukanaan käytännön kustannuksia, jotka ovat kaukana meluisista ilmoituksista. Itse asiassa tekoälymallien monimutkaisuus selittää osittain, miksi niin monet yritykset kokevat tekoälyn hyväksymisen vaikeaksi. Usein suuret ja hallitsemattomat tekoälymallit vaativat omistettuja infrastruktuureja ja harvinaisia, erityisen kalliita asiantuntijuuksia. Tekoälyjärjestelmien käyttöönotto voi siis olla kalliimpaa kuin hyödyllistä, sekä taloudellisesti että energiatehokkuudeltaan. Arvioiden mukaan esimerkiksi ChatGPT:n kaltainen algoritmi maksaa jopa 700 000 dollaria päivässä toimia, johtuen valtavista laskenta- ja energiatarpeista.
Tähän liittyy myös sääntelykysymys. Periaatteet, kuten henkilötietojen keräämisen minimointi, jota GDPR vaatii, ovat ristiriidassa nykyisten tekoälyjen olemuksen kanssa. AI Act, joka tuli voimaan elokuussa 2024, voisi myös kyseenalaistaa näiden kehittyneiden järjestelmien kehittämisen. On osoitettu, että tekoälyt, kuten OpenAI:n GPT-4 tai Googlen PaLM2, eivät täytä 12 keskeistä vaatimusta tästä laista. Tämä yhteensopimattomuus voisi kyseenalaistaa nykyiset tekoälyjen kehittämismenetelmät, vaikuttaen siten niiden käyttöönottoon.
Kaikki nämä syyt voisivat johtaa tekoälykuplan puhkeamiseen, mikä kannustaa meitä harkitsemaan sen potentiaalin liioiteltua esittämistä mediassa. Onkin tarpeen omaksua hienovaraisempi lähestymistapa, suuntaamalla keskustelut realistisempaan ja konkreettisempaan suuntaan, joka tunnustaa näiden teknologioiden rajoitukset.
Tämä tietoisuus tulisi myös ohjata meitä kohti mitattua tekoälyn kehittämistä, jossa järjestelmät ovat paremmin sovitettuja tarpeisiimme ja vähemmän riskialttiita yhteiskunnalle.