Toevallige opmerkingen suggereren geheimhouding over immigratiebesluitvorming


0
Ministerie van Handel, Innovatie en Werkgelegenheid

Immigratieadvocaten zeggen dat documenten van het ministerie van Bedrijfsleven, Innovatie en Werkgelegenheid die zijn vrijgegeven op grond van de Wet op de officiële informatie, terughoudend zijn met het vrijgeven van informatie.
Foto: RNZ / Dom Thomas

Immigratieadvocaten zeggen dat per ongeluk gepubliceerde opmerkingen suggereren dat ambtenaren informatie willen verbergen over het gebruik van geautomatiseerde besluitvorming, algoritmen en kunstmatige intelligentie (AI).

Een verzoek om een ​​officiële informatiewet, gezien door RNZ op de Five Country Conference – die gegevens van reizigers, migranten en vluchtelingen tussen de Five Eyes deelt – legt onbedoeld aantekeningen vast die door het personeel zijn gemaakt terwijl ze beginnen met het redigeren van een document.

De een zegt: “Ik dacht dat INZ [Immigration New Zealand] was niet happig op het vrijgeven van informatie die verwijst naar automatisering – vooral niet als het gaat om besluitvorming”.

Immigratieadvocaat Alastair McClymont zei dat INZ altijd geheimzinnig heeft gedaan over het gebruik van AI, mogelijk uit angst dat het publiek zou geloven dat geautomatiseerde besluitvorming oneerlijk was.

“Ik denk dat mensen zich waarschijnlijk zorgen zouden maken. Ik zou zeggen dat als ik naar mensen op straat zou gaan en ze het behoorlijk afschuwelijk zouden vinden.

“Ik denk dat het grootste gevaar het verankeren van slechte besluitvorming is. Je krijgt een situatie dat als iemand eenmaal is afgewezen, ze altijd zullen worden afgewezen, omdat dat de manier is waarop het automatiseringsproces gaat werken. Moeten we ons daar zorgen over maken “Ja, veel. Maar het verbaast me niet – ze hebben zich hier al heel lang op voorbereid.”

In het OIA-document waren bijgehouden wijzigingen en opmerkingen zichtbaar, met één officiële opname van INZ’s onwil om informatie over automatisering vrij te geven.

Een collega stelde de schrijverscheck voor bij George Rodrigues, die in 2020 werd herkozen als directeur van het internationale Biometrics Institute en INZ’s manager was van identiteitsdiensten, compliance risk en inlichtingendiensten.

Een screengrab van het MBIE-document dat onbedoeld aantekeningen van medewerkers vastlegt wanneer ze beginnen met het redigeren van een document.

Een screengrab van het MBIE-document dat onbedoeld aantekeningen van medewerkers vastlegt wanneer ze beginnen met het redigeren van een document.
Foto: Screengrab / MBIE

Er is geen redactie over de passage gedaan, dus er kon geen klacht worden ingediend bij de ombudsman.

Advocaten zeiden dat de meest geredigeerde informatie die ze vonden afkomstig was van visumaanvragen voor partnerschappen, met de bezorgdheid dat die weggelaten secties en pagina’s risicobeoordelingen en profilering in de gevallen van hun klanten verborgen.

Richard Small zei dat de opmerkingen in de OIA suggereerden dat het systeem werd gemanipuleerd en onderstreepten een gebrek aan transparantie dat beoefenaars en migranten zien.

Het was moeilijk gebleken om achter algoritmen te komen bij het zoeken naar officiële informatie of informatie over de privacywet over waarom migranten waren afgewezen, zei hij.

“Ze vertrouwen massaal op automatisering en willen waarschijnlijk niet dat het publiek weet in hoeverre ze mensen profileren, zoals we weten, van verschillende rassen, en wie weet welke andere automatische profielen ze in het systeem hebben.

“Hun standaardpositie is geheimhouding, niet transparantie. Dat is hun kerncultuur. En dat kunnen we aan de hand van vele voorbeelden illustreren. Ze geloven dat hun systemen fundamenteel niemand anders zijn, zelfs als ze oneerlijke beslissingen nemen, en dat is gewoon onaanvaardbaar.”

In een verklaring laat het ministerie van Ondernemen, Innovatie en Werkgelegenheid (MBIE) weten dat het zijn verplichtingen op grond van de Ambtenarenwet zeer serieus neemt.

“We geloven sterk in het belang van transparantie door het vrijgeven van informatie”, zei INZ-algemeen manager van enablement Stephen Dunstan.

“Vanwege een administratieve fout zijn deze opmerkingen opgenomen in de definitieve release. Ze bevatten gratis en openhartige eerste discussies van het personeel over het materiaal en, zoals weergegeven in het gepubliceerde document, weerspiegelen niet de definitieve beslissing van MBIE over het vrijgeven van informatie.

“Tijdens de verwerking van officiële informatieverzoeken bespreken medewerkers regelmatig de toepassing van de wet, waarbij de nadruk ligt op het beschikbaarheidsbeginsel – dat de informatie beschikbaar wordt gesteld tenzij er een goede reden is om deze achter te houden.”

Hij zei niet of en waarom INZ ‘niet happig’ was op het openbaar maken van geautomatiseerde besluitvorming.

Ombudsman Peter Boshier was in het buitenland, maar zijn kantoor zei in de context van klachten dat hij alle relevante zaken kon overwegen.

Een woordvoerder zei na zijn recente correspondentie met de regering over OIA-aantijgingen van Labour-parlementslid Gaurav Sharma, de Ombudsman antwoordde aan de stafchef van de premier, “opmerkend dat hij verwachtte dat het onderscheid tussen wat officiële informatie is en wat niet nauwkeurig moet worden weergegeven in opleiding”.

Wat geautomatiseerde besluitvorming betreft, heeft INZ eerder gezegd dat het niet van plan was delen van zijn nieuwe bevoegdheden te gebruiken om computers in staat te stellen visumaanvragen af ​​te wijzen, maar in plaats daarvan automatisering te gebruiken om administratieve stappen bij de visumverwerking te doorlopen.

De Data Ethics Advisory Group rapporteerde in 2020 over het risicoanalyseplatform van INZ.

“Training van de datamodellen (machine learning) is gebaseerd op gegevens uit het verleden en de afhankelijkheid van Immigration NZ hiervan kan gevolgen hebben voor de activiteiten van het Risk Analytics Platform. De Data Science Review Board moet onafhankelijke stemmen met specifieke expertise bevatten om dit risico te ondervragen. De samenstelling van de Data Science Review Board is te intern gericht en de raad heeft geen vertegenwoordigers op het gebied van mensenrechten en ethiek.

“Hoewel op regels gebaseerde automatisering gemakkelijk kan worden beoordeeld, zijn modellen voor machine learning en hun onderliggende trainingsgegevens dat niet.”


Like it? Share with your friends!

0
admin

0 Comments

Your email address will not be published.