Adimen artifiziala ia bizi-esparru guztietan txertatzen ari den heinean, haren garapena arautzeko gaitasuna atzetik geratzen ari dela onartzen dute gero eta gehiagok, baita desarautzearen aldeko zenbait ahotsek ere. Pribatutasuna, azpiegitura kritikoak, diskriminazioa edo kontsumo energetikoa bezalako arriskuak mahai gainean daude, eta Europako Batasunak (EB) bide propioa marraztu nahi izan duen arren, azken asteetan norabide-aldaketa baten eztabaida piztu da Bruselan.
AI Act-aren promesa eta presio geopolitikoa
Duela bi urte, Thierry Breton Barne Merkatuko komisario ohiak pozik nabarmendu zuen EB «aitzindari» bihurtzen zela IAri buruzko lege integralarekin, arriskuak mugatzeko asmoz. Gaur egun, ordea, testuingurua gogortu egiten da: AEBk Breton herrialdera sartzea galarazi diote, plataforma teknologiko estatubatuarrak «zentsuratzea» egotzita, eta, aldi berean, Europako Batzordeak arau horren aplikazioan “arnasa” eman nahi lukeela iradokitzen du, lehiakortasunaren izenean eta AEBen zein Txinaren abiadurari begira.
Eva Rodriguez de Luis teknologia berrietan aditua den ingeniariaren arabera, AI Act-a indarrean dago 2024ko abuztutik, baina bere zati handiena bi urte geroago ezartzeko diseinatuta dago; horrek, praktikan, «bi abiadurako» egoera marrazten du: Europan prozesu «motelagoa eta mailakatua», eta kanpoan, «abiadura handikoa», bereziki AEBtan eta Txinan. Lehenengoan, desarautzea nagusitzen da eta datu kantitate handiak ustiatzeko aukera zabaltzen zaie “big tech” enpresei; bigarrenean, Txinak estrategia koordinatu eta zentralizatuago bat baliatzen du, azpiegitura-abantailarekin eta, neurri batean, kode irekiko ekimenekin.
Europak non dauka indargunea?
Rodriguez de Luisen iritziz, desoreka horren oinarrian badago epe laburrean zuzentzea zaila den elementu bat: Europak ez du behar adinako industria-sare berritzaile sendorik. Horrek Europako zenbait enpresa –Alemaniako Aleph Alpha, Frantziako Mistral edo Espainiako Freepik, esaterako– abiapuntu “desabantailatan” uzten ditu lehiakide handien aurrean. Hala ere, adituak ohartarazten du arauketa baztertzeak beste arrisku bat dakarrela: «big tech-ek ezin dute nahi dutena egin», eta lege global bateraturik ez egoteak EBri etengabeko dilema eragiten diola: bakarrik arautzeak berrikuntza moteldu dezake, baina arautu gabe uzteak ondorio sozial larriak ekar ditzake.
Arriskuaren araberako arauak, eta atzeratzeko proposamena
AI Act-aren giltzetako bat arrisku-mailen araberako sailkapena da. Eskubideak larriki urratzen dituzten sistemak –social scoring modukoak– “onartezintzat” jotzen dira eta debekatuta daude. Beste maila batean, “arrisku handiko” aplikazioak daude: identifikazio biometrikoa, pertsonen kategorizazioa edo lan-kontratazioan eta kreditu-ematean erabiltzen diren sistemak, besteak beste, kontrol eta gainbegiratze zorrotzagoa eskatzen dutenak.
Orain, Europako Batzordeak arrisku handiko sistema horien gaineko ikuskapenak gehienez 16 hilabetez atzeratzeko aukera planteatzen du. Neurri hori “ó mnibus digital” izeneko pakete zabalago baten barruan kokatzen da, prozedurak “sinplifikatzeko” asmoarekin.
IA “espezifikoa” eta IA sortzailea: ez dira gauza bera
Itziar Alkorta EHUko Zuzenbide Zibileko irakasle eta bioetikaren arloko adituak azpimarratzen du eztabaidak bi eremu ezberdin nahasten dituela sarritan. Alde batetik, IA “espezifikoa” dago: adibidez, erradiografia batetik minbizia antzemateko erabil daitezkeen sistemak, protokolo sendoak eta kontrol fidagarriak behar dituztenak. Alkortaren ustez, Europak lehiakortasun handiagoa dauka arlo horretan, eta horregatik «prozeduren sinplifikazioak zentzu handiagoa» izan dezake, betiere segurtasun-bermeak sendotuta.
Bestetik, IA sortzailea dago, ChatGPT edo Gemini bezalako eredu handiekin lotua. Omnibus digitalak ez du moratoria orokor bat ezartzen eredu horientzat, baina “egokitzapen-epea” zehazten du: 2026ko abuztuaren 2a baino lehen martxan jarritako sistemek 2027ko otsailaren 2ra arteko tartea izango lukete edukiak markatzeko eta detektagarritasuna bermatzeko betebehar teknikoetara egokitzeko.
Erabilera masiboa, eta “itzulerarik gabeko” arriskua
Datuen arabera, Espainiako Estatuan enpresen erdiak inguruk jada erabiltzen du IA sortzailearen antzeko tresnaren bat; langileen artean, oraingoz, %18 inguruk darabil, baina populazioaren erabilera zabaltzen ari da: lau pertsonatik bik azkenaldian IA sortzailea erabili dute lanerako, ikasketetarako edo helburu pribatuetarako, eta gazteen erdiak egunerokoan erabili du noizbait.
Alkortak horri lotuta ohartarazten du: egokitzapen-epe horiek ez direla neutroak. Bere iritziz, enpresa handien helburua izan liteke teknologia “ezinbesteko” bihurtzea arau zorrotzagoak heldu aurretik, eta, hala, Europak estandar “apalagoak” onartzera bultzatzea. Gainera, adituak azpimarratzen du gaur egungo IA sortzaileak «gero eta indartsuagoak» badira ere «oso opakuak» direla: zaila da jakitea datuak zein zerbitzaritan amaitzen diren eta zein ibilbide egiten duten.
RGPDren berrikuspena eta “datu” hitzaren borroka
Eztabaidaren zati polemikoenetako bat Datuak Babesteko Arautegi Orokorraren (RGPD) inguruan irekitzen da. Europako Batzordeak arau sakabanatuak RGPDren aterkipean bateratu nahi ditu, eta helburu gisa “IA ereduak entrenatzeko neurri osagarriak” sustatzea aipatzen da; praktikan, horrek aukera eman diezaioke Google, Meta edo OpenAI bezalako konpainiei EBko herritarren datu pertsonalak prestakuntzarako erabiltzeko.
Horri gehitzen zaizkio cookie-en inguruko aldaketak: baimen orokorrak erraztea eta oroigarri periodikoak kentzea proposatzen da, “erabiltzaile-esperientzia” hobetzeko argudioarekin; kritikoen arabera, ordea, horrek profilatze masiboa erraztu dezake, datuen kudeaketan aktibo ez diren pertsonen kaltetan.
Alkortaren ustez, «sinplifikazioa eufemismo bat» izan daiteke, batez ere “datu pertsonalaren” definizioan gertatzen ari den estutzea ikusita. Berez, pertsona batekin zuzenean edo zeharka lotu daitekeen informazio oro babestu beharrekoa izan da. Datu anonimoek –identifikazioa ezinezkoa denean– bestelako tratamendua izan dute. Baina “pseudonimizatutako” datuek (adibidez, izena kendu baina kode bati lotutako historial medikoa) eztabaida handiagoa sortzen dute: orain, Europako Justizia Auzitegiaren doktrinaren ondorioz, datu horiek pertsonalak izateari utz diezaiokete erabiltzaileak “arrazoizko” sarbiderik ez badu berriz identifikatzeko giltzara, eta berriro identifikatzea “esfortzu neurrigabea” baldin bada. Horrek, praktikan, informazio-bolumen handiagoak erabiltzeko ateak irekitzen ditu, baimen espliziturik gabe.
Parlamentuan datorren pultsua
Bruselan, eztabaidaren atzean lehiakortasunaren aldeko presioa ageri da, baita EBko zenbait erreferentziaren txosten eta mezuekin ere. Baina, presio horien gainetik, AEBtako Administrazioaren jarrerak pisu berezia hartzen duela diote zenbait ordezkarik.
Oihane Agirregoitia EAJko eurodiputatuak salatzen duenez, Trump Etxe Zurira itzuli zenetik presioak ugaritu egiten dira, eta AEBtako Merkataritza idazkariak altzairuaren eta aluminioaren muga-zerga arintzea arau digitalen “erlaxazioarekin” lotzera ere iritsi dela gogorarazi du. Horren aurrean, argi adierazi du: «xantaia onartezina da» eta «Europan negozioak egin nahi dituenak gure arauak bete behar ditu». Hala ere, Omnibus digitalak badituela “segurtasun juridikoa” eta sinplifikazio erabilgarria ekar ditzaketen puntuak ere onartu du, batez ere ETEentzat, baina muga jarrita: «burokrazia gutxitu bai, baina balioei uko egin gabe».
Pernando Barrena EH Bilduko eurodiputatuak, berriz, desarautze-logika arriskutsu baten parte gisa ikusten du paketea, IAren lasterketa geopolitikoaren testuinguruan. Bere ustez, lehiakortasunaren aitzakiak ate arriskutsuak ireki ditzake, eta ohartarazi du datu pertsonalen definizioa “lausotzeak” informazioaren erabilera zabal dezakeela gustuen, ohituren eta portaera digitalen inguruan, profilatze “masibo eta diskriminatzailea” erraztuz.
Dena den, proposamenak oraindik Parlamentu Europarra eta Kontseilua igaro behar ditu, eta emaitza ez dago itxita: kezka handitzen ari dela diote, eta eztabaida irekia dago ea “sinplifikazioaren” izenean zein punturaino onartu behar den arau-bermeen atzerapena, eskubide digitalen kaltetan.



