Adimen artifizialeko sistemek, hala nola ChatGPTk, ez dute beti jarrera bera erakusten; haien «pertsonalitatea» aldakorra izan daiteke, erabiltzen den hizkuntzaren edo testuinguru kulturalaren arabera. Hori da Kataluniako Unibertsitate Irekiko (UOC) ikertzaileek egindako ikerketa berritzaile baten ondorio nagusietako bat.
Nortasuna edo itxurakeria?
UOCeko eHealth Lab taldeko ikertzaileek aztertu dute ea hizkuntza-eredu handi batek, kasu honetan GPT-4o modeloa, izaera psikologiko desberdinak erakusten dituen hizkuntza batetik bestera, edo hiztunaren jatorria aldatzean. «Galdetegi psikologiko estandarrak erabiliz, sistemaren jarrera aldakorra zenbaterainokoa zen ikusi nahi genuen», azaldu du Ruben Nieto irakasle eta ikertzaileetako batek.
Ikerketan, EPQR-A galdetegia erabili zen (estrabertsioa, neurotizismoa, psikotizismoa eta gezurra neurtzen dituena), eta ChatGPTri sei hizkuntzatan erantzuteko eskatu zitzaion, baita bost herrialdetako hiztun ingelesdunen rolak hartuta ere.
Kulturaren eragina erantzunetan
Hizkuntza bera izanda ere, sistemak herrialdearen arabera portaera desberdinak erakutsi zituen, tokian tokiko estereotipo nazionaletara hurbilduta. Hau ez da oharkabean pasatu: «Desberdintasunak ez dira itzulpen hutsetik sortuak, baizik eta kultura eta hizkuntza bakoitzari loturiko oinarrizko balioetatik», azpimarratu du Andreas Kaltenbrunnerrek.
Honek erakusten du IA eredu handiak entrenatzen dituzten datuek jatorrizko gizartearen aurreiritzi eta joerak barneratzen dituztela, eta gero hauek erantzunetan islatzen direla.
Alborapenak eta arriskuak
Emaitzek kezka piztu dute, batez ere IA tresnak testu eleaniztunak sortzeko edo itzulpen automatikoak egiteko erabiltzen direnean. Ikertzaileek ohartarazi dute estereotipoetan oinarritutako alborapenak indartu daitezkeela, eta horrek kalte egin diezaieke testuen kalitateari eta objektibotasunari.
Hori saihesteko, hainbat irtenbide proposatu dituzte: sistema anitzen erabilera, emaitzen arteko konparaketa, eta testuinguru kulturalaren ulermena hobeto txertatzea ereduen garapenean.
IA ere aztergai psikologikoa
Bestalde, ikerketak agerian utzi du pertsonen nortasuna aztertzeko sortutako tresnak adimen artifizialaren portaera ebaluatzeko ere erabilgarriak izan daitezkeela. «GPT sistemek erantzun koherenteak ematen dituzte zenbait eskaletan, hala nola estrabertsioan eta neurotizismoan», dio Jacopo Amideik, beste ikertzaile batek.
Hala ere, beste dimentsio batzuetan fidagarritasuna ez da hain sendoa, eta horregatik ezin da giza emaitzekin zuzenean parekatu.
Etorkizuneko erronkak
Ikertzaileek ez dute bertan geratzeko asmorik. Etorkizunean beste hizkuntza-eredu batzuekin (Claude, DeepSeek, LLaMA) eta galdera-multzo berriekin lan egitea aurreikusi dute, alborapen kultural horiek ereduetan orokorrak diren ala ez argitzeko.
«IAren bidez sortutako populazio birtualak erabilgarriak izan daitezke ikerketarako, baina ezinbestekoa da sistema horien barne funtzionamendua eta joerak sakon ulertzea», ohartarazi du Nietok.