Adimen artifiziala, konfidente faltsua
Adimen artifiziala hitz egitean, askori, Terminator filmeko istorioak bezalakoak etortzen zaizkie burura: gu konkistatzera etorri den teknologia bat, adimenduna, pertsona baten forma duena eta, normalean, iluntasunetik eta bekaizkeriatik asko duena. Adimen artifiziala, ordea, ez hori: berez, gizakion gaitasunen markoan ulertzen ditugun zeregin batzuen antzeko funtzionamendua duen teknologia bat baizik. Datuak prozesatzeaz ari naiz, baina baita sormen-lanetaz, adimen artifizial sortzailearen kasuan. Guztien atzean, baina, konputazio-ahalmena dago eta, adimen artifizial sortzailearen kasuan, nagusiki probabilitatean oinarritzen den funtzionamendua. Zer esan nahi du honek? Bada, ChatGPT, Copilot edo Gemini bezalako adimen artifizial sortzaileei tortilla arruntena zein den galdetzen badiegu, patata-tortilla erantzuna emango du. Ez daki zein den tortilla arruntena, baina “tortilla” hitzaren ondoan gehien errepikatzen den hitza “patata” dela jasotzen da datu-basean, nolabait esateko, eta horrek eramaten du erantzun hori ematera. Probabilitate kontua da, alegia.
Zer dela eta kontatzen dizuet hau? Agian, badakizue; ziurrenik, nik neuk baino sakonago eta hobeto azaltzen, baina ez dakit noraino partekatu dugun hau gure gazteekin. Albisteetan jada ikusiko zenuten gazte askok (baita helduek ere) halako txatbotak erabiltzen dituztela konfidente edo psikologo bezala. Abantailak agerikoak dira: edonon eta edonoiz dago eskura, eta ez du kontra egiteko edo problematizatzeko intentziorik. Eszenatoki horrek gurpil-zoro batean sartzeko autopista zabaltzen digu, adulatzen gaituen “lagun” baten antza har dezakeelako.
Arriskuak agerikoak direnez, bi dira nabarmendu nahiko nituzkeen arretaguneak. Alde batetik, antropomorfizatzeko tendentzia; hau da, pertsona bezala tratatzea. Adimen artifizialean oinarritutako halako tresnek, gizakion hizkera eta tonu emozionala imitatzen dutenez, oso erraza da horiei agentzia edo kontzientzia ematea. Horrek bi arrisku nagusi sortzen ditu:
- Gehiegizko konfiantza izatea: ezin dugu pentsatu makinak ulertzen gaituela, epaitzen duela esandakoa edo gurekiko enpatia duela. Jasotzen dituen erantzunak ez dira benetako laguntza emozionala eta ezin dugu hori sinetsi. Gainera, elkarrizketa intimoak ez dira “airean geratzen”: konpainiek ereduak hobetzeko, publizitate pertsonalizaturako edo portaera‐ereduak sortzeko erabili ditzakete.
- Gauzak zalantzan jartzeko gaitasuna galtzea: makina batek esandakoa “adituaren iritzitzat” hartzeko arriskua dago (erabiltzen duen hizkuntzarengatik, adibidez), eta beraz, bere proposamenak zalantzan jarri gabe jarraitzeko arriskua dago.
Psikologiaren esparruan, harreman terapeutikoa eta enpatia oinarrizko zutabeak dira. Adimen artifizialrekin sortutako “pertsona-itxurako” elkarrizketek nahastu egin gaitzakete eta irizpide profesionalik gabe behar ez diren bideetatik eraman.
Nabarmendu nahi dudan beste arlo bat da teknologia hauek daukaten adulaziorako tendentzia. Hizkuntza‐ereduetan oinarritutako halako teknologiek erabiltzaileon arreta, atentzioa eta erabilera lortzeko helburua dute (erabiltzaileak fidelizatzeko, besteak beste) eta, horretarako, gure esperientzia ahalik eta erosoena, gozagarriena eta gogoangarria izateko konplazentzian oinarritutako erantzunak sortzen ditu. Horrek hainbat deformazio arriskutsu ekar ditzake:
- Errefortzu okerrak ematea: gu pozteko diseinatuta daudenez, gure ideiak edo jarrerak (edonolakoak izanda ere) baieztetu, sustatu edo animatu ditzake. Adibidez, autoestimua baxu duen gazte baten pentsamenduak baieztatu ditzake, edota somatizatzen ari den pertsona bati nahasmendua areagotzeko mezuak eman diezazkioke.
- Konfrontazio terapeutikoaren gabezia: adulazioaren ildotik, adimen artifiziala ez da eraginkorra psikoterapian ohikoa den konfrontazioa, gatazka edo problematizazioa egiteko; hau da, ideiak edo jokaerak modu kritiko eta osasuntsuan islatzea, horren gaineko lanketa egiteko. Halako ereduek ez dute aurreko testuinguru klinikorik, ezta pertsonaren ongizatearen arduradun izateko gaitasunik ere.
Egia da adimen artifizialean oinarritutako tresnak oso erabilgarriak izan daitezkeela laguntza praktikoa, argibideak edo kontzeptuen azalpena eskuratzeko. Hala ere, psikologo edo konfidente baten lekua hartzen dutenean, arazo etiko eta klinikoak sortzen dira, baita arrisku egoerak ere.
Eta hementxe dator askotan aipatzen ditudan konpetentzia digitala eta adimen artifizialaren alfabetatzea. Kontua ez da teknologia digitala debekatzea, ez; baina gure haur eta gazteak prestatu behar ditugu, funtzionamendua ezagutzeko, kritikoak izateko eta halako erabileretan jausi ez daitezen. Horretarako, teknologiaren bueltan egiten ditugun esku-hartzeak garrantzitsuak izango dira, noski; baina are garrantzitsua izango da gure gazteek seguru sentiarazten laguntzea, familia-giroa beraien ongizateaz, kezkez eta ametsez hitz egiteko espazio seguru gisa har dezaten.
Iruzkinik ez "Adimen artifiziala, konfidente faltsua"