Tieteelliset ja teknologiset uutiset

Entä jos tekoäly ymmärtäisi tunteita paremmin kuin me? 🧐

UNIGE:n ja UniBE:n tiimi osoittaa, että generatiivinen tekoäly voi ylittää ihmiset tunneälykkyystesteissä.

LLM:t saivat merkittävästi parempia tuloksia, 82 % oikeista vastauksista verrattuna 56 %:iin ihmisillä.

Onko tekoäly (TA) kykenevä ehdottamaan sopivia käyttäytymismalleja emotionaalisesti latautuneissa tilanteissa? Geneven (UNIGE) ja Bernin (UniBE) yliopistojen tiimi testasi kuutta generatiivista tekoälyä, mukaan lukien ChatGPT:n, tunneälykkyystesteissä, jotka on tavallisesti varattu ihmisille. Tulokset: nämä tekoälyt ylittävät ihmisten suoritukset ja pystyvät luomaan ennätysajassa uusia testejä. Nämä tulokset avaavat uusia mahdollisuuksia tekoälyn käytölle koulutuksessa, valmennuksessa ja konfliktien hallinnassa. Ne on julkaistu Communications Psychology -lehdessä.

Suuret kielimallit, eli Large Language Models (LLM), ovat tekoälyjärjestelmiä, jotka pystyvät käsittelemään, tulkitsemaan ja tuottamaan ihmiskieltä. Tällaiselle mallille perustuu esimerkiksi generatiivinen tekoäly ChatGPT. Nämä mallit voivat vastata kysymyksiin ja ratkaista monimutkaisempia ongelmia. Mutta voivatko ne myös ehdottaa älykkäitä käyttäytymismalleja emotionaalisella tasolla?

Nämä tulokset avaavat mahdollisuuksia tekoälyn käytölle konteksteissa, joita on aiemmin pidetty vain ihmisille varattuina.

Tilanteiden esittely


Tämän selvittämiseksi UniBE:n psykologian instituutin ja UNIGE:n tunteiden tieteiden keskuksen (CISA) tiimi testasi kuutta LLM:ää (ChatGPT-4, ChatGPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku ja DeepSeek V3) tunneälykkyystesteissä.

"Valitsimme viisi testiä, joita käytetään sekä tutkimuksessa että työelämässä. Ne esitettiin moninaisten, emotionaalisesti latautuneiden tilanteiden muodossa, joiden tarkoituksena oli arvioida tunteiden ymmärtämisen, säätelyn ja hallinnan taitoja", selittää Katja Schlegel, yliopistonlehtori ja pääasiallinen tutkija persoonallisuuspsykologiassa, differentiaalisessa psykologiassa ja psykologisessa arvioinnissa UniBE:n psykologian instituutissa, sekä tutkimuksen pääkirjoittaja.

Esimerkiksi: "Michaëlin kollega varasti hänen ideansa ja saa epäoikeudenmukaisesti kiitosta. Mikä olisi Michaëlin tehokkain reaktio?"

a) Riidellä asianomaisen kollegan kanssa.

b) Puhua tilanteesta esimiehelleen.

c) Kokea kaunaa kollegaansa kohtaan hiljaa.

d) Varastaa häneltä idea vastineeksi.

Tässä reaktio b) katsottiin olevan kaikkein relevantti.

Samaan aikaan nämä viisi testiä tarjottiin myös ihmisosallistujille. "Lopulta LLM:t saavuttivat merkittävästi parempia pisteitä, 82 % oikeita vastauksia verrattuna 56 %:iin ihmisillä", paljastaa Marcello Mortillaro, CISA:n tutkimusassistentti UNIGE:ssa, joka oli mukana näissä tutkimuksissa. "Tämä osoittaa, että näillä tekoälyillä on tietoa tunteista ja siitä, mitä emotionaalisesti älykäs käyttäytyminen tarkoittaa."

Uudet testit ennätysajassa


Toisessa vaiheessa tutkijat pyysivät ChatGPT-4:ltä luomaan uusia tunneälykkyystestejä, joissa oli uusia skenaarioita. Nämä automaattisesti luodut testit esitettiin sitten yli 400 osallistujalle.

"Ne osoittautuivat olevan luotettavuudeltaan, selkeydeltään ja realismiltaan verrattavissa alkuperäisiin testeihin, jotka olivat vaatineet vuosien kehitystyön", toteaa Katja Schlegel.

"LLM:t eivät siis ole vain kykeneviä löytämään parasta vastausta eri tarjotuista vaihtoehdoista, vaan myös luomaan uusia skenaarioita haluttuun kontekstiin. Tämä vahvistaa ajatusta siitä, että LLM:t, kuten ChatGPT, pystyvät emotionaaliseen päättelyyn", lisää Marcello Mortillaro.

Nämä tulokset avaavat mahdollisuuksia tekoälyn käytölle konteksteissa, joita on aiemmin pidetty vain ihmisille varattuina, kuten koulutuksessa, valmennuksessa tai konfliktien hallinnassa, edellyttäen, että käyttöä ohjaavat asiantuntijat.