Eurooppa Maahanmuutto Politiikka Tiede ja teknologia

”A.I.SYL” – päättääkö tekoäly pian turvapaikkahakemuksista Itävallassa?

Kuvituskuva: Kansalainen.

Itävallan liittovaltion maahanmuuttovirasto haluaa nopeuttaa turvapaikkamenettelyjä tekoälyn avulla. Grazin tutkijat kuitenkin varoittavat, että teknologia on altis virheille, siitä puuttuu avoimuus ja se vaarantaa maahanmuuttajien perusoikeudet.

Itävallan liittovaltion maahanmuutto- ja turvapaikkavirastolla on suuria suunnitelmia: tulevaisuudessa tekoäly auttaa järjestämään turvapaikkamenettelyt nopeammin ja tehokkaammin. Chatbotin on tarkoitus tehdä lähtömaita koskevat tiedot haettavissa oleviksi, kun taas toinen työkalu analysoi, luokittelee ja tiivistää tietoja. Teknologiselta edistykseltä kuulostavaa toimintaa on kuitenkin kritisoitu voimakkaasti.

Grazin yliopiston A.I.SYL-tutkimushanke analysoi vuoden ajan tekoälyn käyttöä Itävallan turvapaikkajärjestelmässä. Johtopäätös: mikään testatuista välineistä ei todistettavasti tehnyt prosessista oikeudenmukaisempaa tai ihmisoikeuksia paremmin noudattavaa. Päinvastoin: raportin laatijat näkevät vakavia oikeudellisia ja eettisiä ongelmia – ja varoittavat ”vaarallisesta kokeilusta suojelua hakevien ihmisten selän takana”.

Tutkijat määrittelivät neljä keskeistä tekoälyn sovellusaluetta turvapaikka-asioissa: automaattinen kääntäminen, kasvojentunnistus, tietovälineanalyysi ja valtion asiakirjojen arviointi. Jälkimmäinen antaa tietoa lähtömaiden sisäisestä turvallisuudesta ja auttaa analysoimaan pakenemisen syitä. Ennen kaikkea nämä toiminnot ovat kritiikin keskipisteessä.

Toimittajien kysyessä Gerhard Karnerin (ÖVP) sisäministeriö totesi, että se työskentelee jo chatbotin parissa, jonka avulla turvapaikanhakijoiden lähtömaita koskevia tietoja olisi mahdollista löytää ”tehokkaammin ja nopeammin”. Lisäksi kehitteillä on työkalu, jolla voidaan jäsentää tietoja ja poimia automaattisesti keskeisiä tietoja. A.I.SYL olettaa, että tähän käytetään niin sanottuja suuria kielimalleja (LLM).

”Turvapaikkatekoäly kärsii hallusinaatioista”

Kriitikoiden mukaan tällaiset järjestelmät voivat tuottaa sisältöä, jota lähteissä ei ole – ilmiö tunnetaan nimellä ”hallusinaatio”. Lisäksi mallit heijastavat harjoitusaineistonsa sosiaalisia ennakkoluuloja. Tämän seurauksena on olemassa vaara, että tiettyjä maita koskevat raportit vääristyvät – millä on kauaskantoisia seurauksia turvapaikkapäätöksille.

Toinen ongelma-alue on matkapuhelinten arviointi matkareittien ja henkilöllisyyden tarkistamiseksi. Tämä on jo perusmuodossaan vakava loukkaus yksityisyyden suojaa koskevaan perusoikeuteen. Tulevaisuudessa nämä tiedot voitaisiin jopa yhdistää valtion asiakirjoihin OSIF-työkalun avulla, mikä tutkijoiden mukaan herättää huomattavia ongelmia tietosuojan ja turvapaikkalainsäädännön kannalta. Sisäministeriö ei kuitenkaan ole vielä virallisesti vahvistanut tätä.

Tutkijat varoittavat niin sanotusta ”mustan laatikon ongelmasta”: tekoälyjärjestelmät tuottavat tuloksia, joiden alkuperä on usein käsittämätön. Tätä ei voida hyväksyä perustuslaillisissa menettelyissä. Jokaisen, joka haluaa valittaa päätöksestä, on voitava ymmärtää, miten päätös on tehty. Toinen kirjoittaja ja asianajaja Angelika Adensamer korostaa vasemmistolaisessa Standard-lehdessä: ”BFA ei voi vain päättää soveltaa tätä. Se tarvitsee selkeän oikeusperustan.”

Lähde: Junge Freiheit

Lue lisää aiheesta:
Tilaa
Ilmoita
0 Kommenttia
Uusin
Vanhin Äänestetyin
Palautteet
Näytä kaikki kommentit