Adimen artifizialeko laguntzaileek emandako erantzunen zehaztasuna zalantzan jarri du Europako Irrati-difusio Batasunak (UER) egindako ikerketa berri batek. Ondorio nagusia kezkagarria da: aztertutako erantzunen %31k akats larriak zituzten —informazioaren jatorria ezkutatzea, iturri engainagarriak erabiltzea edo datu faltsuak ematea—. Horrez gain, %20 oso lausoak edo zehaztasun gutxikoak izan ziren, eta askotan asmatutako datuak edo zaharkitutako informazioa zituzten.
Ikerketa hau BBCk gidatu du, eta 22 irrati eta telebista publiko izan dira parte-hartzaile, guztira 3.000 erantzun baino gehiago aztertuta, 14 hizkuntzatan eta lau laguntzaile nagusiekin: ChatGPT, Copilot, Gemini eta Perplexity.
«Akats horiek ez dira salbuespenak, sistematikoak dira»
UERreko zuzendariorde orokorrak, Jean Philip de Tenderrek, ohartarazpen argia egin du: «Akats horiek ez dira kasu isolatuak; izaera sistemikoa dute, hizkuntza anitzetan eta mugaz gaindiko moduan agertzen dira, eta horrek gizartearen konfiantza arriskuan jartzen du».
Txostenak hainbat irizpide hartu ditu kontuan: informazioaren zehaztasuna, iturrien gardentasuna, iritzi eta datuen arteko bereizketa, eta baita testuinguruaren azalpen gaitasuna ere.
Gemini, emaitzarik txarrenak izan dituen laguntzailea
Aztertutako lau tresnetatik, Gemini izan da emaitzarik ahulenak erakutsi dituena. Ikerketaren arabera, bere erantzunen %76k arazo esanguratsuak zituzten, beste laguntzaile batzuen bikoitza baino gehiago. Horren arrazoietako bat iturriak bilatzeko eta egiaztatzeko duen gaitasun eskasa izan da.
Laguntzaile guztiek, oro har, zailtasunak izan dituzte albiste konplexuekin, bereziki azkar eboluzionatzen duten gaietan edo hainbat aktore sartzen diren kronologietan. Halaber, datu zehatzak edo iritzi eta gertaeren arteko bereizketa behar duten gaietan ere ohikoak izan dira akatsak.
Trump, Myanmar eta Yemeneko adibideak
Txostenak hainbat kasu aipagarri azpimarratu ditu. Adibidez, Donald Trumpek ezarritako arantzeei buruzko azalpenen ia erdiek akats nabarmenak zituzten. Antzera gertatu da 2025ean Myanmarren izandako lurrikara handiaren hildakoen kopuruari buruzko datuekin, eta baita AEBk Yemenen egindako bonbardaketei buruzko informazioarekin ere.
Horrelako gaietan, laguntzaileek nahasmena edo informazio okerra erakutsi dute, eta askotan iturri zehatzik gabe edo datu zaharkituekin jardun dute.
Etengabeko jarraipenaren beharra
UERren arabera, ezinbestekoa da adimen artifizialeko laguntzaileen jarraipen jarraitua egitea, teknologia hauek etengabe eboluzionatzen ari direlako. Horregatik, erakundeak Europako Batasunari eta estatu kideei eskatu die informazioaren osotasuna, zerbitzu digitalen gardentasuna eta hedabideen pluraltasuna babestuko dituzten legeak indartzeko eta eguneratzeko.
Ikertze-lanean parte hartu duten 22 komunikabide publikoen artean daude, besteak beste, Espainiako RTVE, Italiako RAI, Radio France eta AEBtako NPR. Guztiek bat egin dute iritzi berean: adimen artifizialak aukera handiak eskaintzen dituen arren, bere fidagarritasuna eta gardentasuna bermatzea funtsezkoa izango da gizartearen konfiantza ez galtzeko.
Ondorioa: IAren erantzunak aztertzeko garaia
Ikerketak argi utzi du adimen artifizialaren erabilera orokortzen doan heinean, informazioaren fidagarritasuna eta egiaztapena dira erronka nagusiak. De Tenderrek amaieran adierazi bezala, «teknologia hauek gure eguneroko bizitzan gero eta eragin handiagoa dute, baina ezin dugu ahaztu egia eta gardentasuna bermatzea dela oinarri etiko nagusia».
UERren asmoa da etorkizunean antzeko azterketa berriak egitea, laguntzaile hauek nola hobetzen diren eta zein arrisku berriak sortzen diren jarraitzeko.



