Tweetalige printerversie Eentalige printerversie

Schriftelijke vraag nr. 7-2324

van Rik Daems (Open Vld) d.d. 26 april 2024

aan de staatssecretaris voor Digitalisering, belast met Administratieve Vereenvoudiging, Privacy en de Regie der gebouwen, toegevoegd aan de Eerste Minister

AI - Wetgeving - Privacy - Mails - Cijfers en tendensen

kunstmatige intelligentie
eerbiediging van het privé-leven
digitale cultuur

Chronologie

26/4/2024Verzending vraag (Einde van de antwoordtermijn: 30/5/2024)

Ook gesteld aan : schriftelijke vraag 7-2322
Ook gesteld aan : schriftelijke vraag 7-2323

Vraag nr. 7-2324 d.d. 26 april 2024 : (Vraag gesteld in het Nederlands)

De Amerikaanse regering onder leiding van vicepresident Kamala Harris heeft strikte voorwaarden aangekondigd voor het gebruik van kunstmatige intelligentie (AI) door overheidsinstanties. Deze voorwaarden zijn bedoeld om de veiligheid en rechten van de bevolking te waarborgen. Een opvallende maatregel is dat burgers binnenkort op Amerikaanse luchthavens het gebruik van gezichtsherkenning kunnen weigeren zonder angst voor vertraging.

Als eerste stap om misbruik van AI door federale instanties tegen te gaan, heeft het Bureau voor management en budget (OMB) een reeks maatregelen opgesteld. Hieronder valt onder andere de verplichting voor elke instantie om een «Chief AI Officer» aan te stellen die toezicht houdt op het gebruik van deze technologie. De gevolgen van deze maatregelen zullen zich op termijn laten voelen in sectoren zoals gezondheidszorg, huisvesting en werkgelegenheid in de Verenigde Staten.

Deze aankondiging maakt deel uit van een breder initiatief van president Joe Biden. Het uitgebreide decreet, ondertekend begin oktober, richt zich niet alleen op het gebruik van AI door overheidsinstanties, maar ook op commercieel gebruik. Het streeft naar een uniform beleid voor kunstmatige intelligentie.

Volgens de nieuwe regels, die van kracht worden op 1 december, moeten overheidsinstanties beoordelen of het gebruik van AI geen gevaar vormt voor de rechten en veiligheid van burgers. Bovendien moeten zij op hun websites openheid geven over de «AI-tools» die zij gebruiken, de redenen voor dit gebruik, en de mogelijke risico's die eraan verbonden zijn.

Vicepresident Harris benadrukte dat het invoeren en ontwikkelen van AI een verantwoordelijkheid is van leiders in de overheid, maatschappij en private sector. Het moet gebeuren op een manier die het publiek beschermt en tegelijkertijd iedereen laat profiteren van de voordelen ervan.

Instanties die niet aan deze voorwaarden kunnen voldoen, moeten volgens het Witte Huis stoppen met het gebruik van AI, tenzij ze kunnen aantonen dat dit het veiligheids- of rechtvaardigheidsrisico verhoogt. Enige uitzondering hierop is het ministerie van Defensie, dat autonome wapens blijft gebruiken.

Shalanda Young van het OMB gelooft dat een verantwoord gebruik van AI overheidsinstanties kan helpen om wachttijden voor kritieke diensten te verkorten, nauwkeurigheid te verbeteren en de toegang tot essentiële overheidsdiensten te vergroten.

Hoewel het plan al in 2020 werd geïnitieerd door het Amerikaanse congres, miste het de termijn voor implementatie. Het is het nieuwste in een reeks initiatieven van de Biden-regering om de AI-industrie te reguleren, terwijl Europa al eerder stappen heeft genomen met de goedkeuring van een wet voor AI-regulering.

Deze schriftelijke vraag heeft een transversaal karakter. De verschillende regeringen en schakels in de veiligheidsketen zijn het eens over de fenomenen die de komende vier jaar prioritair moeten worden aangepakt. Die staan gedefinieerd in de Kadernota Integrale Veiligheid en het Nationaal Veiligheidsplan voor de periode 2022-2025, en werden besproken tijdens een Interministeriële Conferentie, waarop ook de politionele en justitiële spelers aanwezig waren. Het betreft aldus een transversale aangelegenheid met de Gewesten waarbij de rol van de Gewesten vooral ligt in het preventieve luik.

Graag had ik dan ook volgende vragen voorgelegd aan de geachte minister:

1) Hoeveel overheidsinstanties in België maken momenteel actief gebruik van kunstmatige intelligentie, en kunt u ons voorzien van specifieke voorbeelden van hoe deze technologie wordt ingezet? Wat zijn de belangrijkste doelstellingen en prioriteiten van de regering met betrekking tot het gebruik van kunstmatige intelligentie binnen overheidsinstanties?

2) Kunnen we meer inzicht krijgen in de manier waarop België omgaat met mogelijke risico's die gepaard gaan met het gebruik van kunstmatige intelligentie, zoals privacykwesties en discriminatie? Wat zijn enkele van de voordelen die u ziet in het gebruik van kunstmatige intelligentie, en zijn er concrete voorbeelden van verbeteringen in efficiëntie en dienstverlening?

3) Heeft de regering plannen om een centrale functionaris aan te stellen om toezicht te houden op het gebruik van kunstmatige intelligentie binnen overheidsinstanties, vergelijkbaar met de «Chief AI Officer» die in de VS wordt voorgesteld? Zo ja, kan u hierbij in detail treden?

Zijn er plannen om specifieke wetgeving of richtlijnen op te stellen met betrekking tot het gebruik van kunstmatige intelligentie binnen de Belgische overheid, vergelijkbaar met de initiatieven in andere landen?

4) Wat is de visie van de regering op de regulering van kunstmatige intelligentie en hoe verschilt deze van de benadering van andere landen, zoals de Verenigde Staten of zelfs onze buurlanden? Wat zijn de trends in het gebruik van kunstmatige intelligentie binnen onze overheidsinstanties in vergelijking met andere landen of regio's, en zijn er gebieden waar België achterloopt of juist voorop loopt?

5) Is er een mechanisme ingesteld voor het monitoren en evalueren van de impact van kunstmatige intelligentie op overheidsdiensten en de samenleving als geheel, en kunt u enige inzichten delen die zijn verkregen uit deze evaluaties? Hoe zorgt de overheid ervoor dat de privacy van burgers wordt beschermd bij het gebruik van kunstmatige intelligentie binnen overheidsinstanties, met name bij gevoelige toepassingen zoals gezondheidszorg en veiligheid? Zou u dit kunnen staven met voorbeelden?

6) Zijn er beoordelingscriteria vastgesteld voor de selectie en implementatie van AI-systemen binnen de Belgische overheid, met het oog op het minimaliseren van mogelijke negatieve gevolgen zoals discriminatie en vooroordelen? Zo ja, welke?

7) Kunt u informatie verstrekken over de effecten van kunstmatige intelligentie op de werkgelegenheid binnen de overheid, inclusief gegevens over banenverlies en mogelijke heroriëntatie van personeel? Heeft u reeds statistieken over de efficiëntieverbeteringen die kunstmatige intelligentie heeft gerealiseerd binnen overheidsinstanties, zoals bij het verwerken van aanvragen of het leveren van diensten aan burgers? Zo ja, kan u hierover uitweiden?

Zijn er statistieken beschikbaar over het aantal klachten of incidenten met betrekking tot het gebruik van kunstmatige intelligentie binnen overheidsinstanties? Zo ja, hoe werden deze afgehandeld?