De AI-wet is de eerste AI-regelgeving in de westerse wereld die een kader creëert voor de ontwikkeling en implementatie van AI in Europa en mogelijk ook in andere regio’s. Ondanks dat de AI Act het meest geavanceerde en ambitieuze instrument is om artificiële intelligentie te reguleren, is het goed om in gedachten te houden dat het geen allesomvattend regelboek voor AI is.
De AI-wet is een compromis dat het resultaat is van moeizame onderhandelingen en de afstemming van verschillende standpunten. Sommigen hebben de wet bekritiseerd als te laks wat betreft de mogelijke risico’s van artificiële intelligentie en anderen vinden de eisen te streng. Wat dat laatste betreft, richt veel van de kritiek zich vooral op de zorg dat de moeilijk te begrijpen en verstrekkende eisen van de AI-wet de Europese innovatie kunnen afremmen en ook leiden tot onredelijke kosten voor organisaties.
Dit soort kritiek geeft echter vaak een verkeerd beeld van het doel van de regeling en gaat voorbij aan de risicogebaseerde benadering van de AI-wet. In werkelijkheid zijn de vereisten van de wet vooral gericht op systemen met artificiële intelligentie met een hoog risico, dat wil zeggen het gebruik van het soort AI dat aanzienlijke schadelijke gevolgen kan hebben voor de menselijke gezondheid, veiligheid en fundamentele mensenrechten. Dit soort AI-systemen maken naar schatting niet meer dan ruwweg 10-15 procent uit van de gehele AI-markt in de EU. De strengere eisen van de AI-wet zijn alleen van toepassing op deze AI-systemen en andere systemen die in de wet worden genoemd. De wet zal geen direct effect hebben op toepassingen met een laag risico, zoals videogames of (ve)rtaalhulpmiddelen.
Organisaties en besluitvormers moeten er echter rekening mee houden dat de AI-wet in het geval van een AI-systeem met een hoog risico aanzienlijke verwachtingen stelt aan de leverancier van het systeem. De leverancier moet ervoor zorgen dat het systeem veilig, betrouwbaar en niet-discriminerend is.
Dit houdt onder andere in dat er eisen moeten worden gesteld aan de kwaliteit van de gegevens in de trainings- en testfase, zodat de doelwitten van het AI-systeem niet worden gediscrimineerd op basis van hun huidskleur of hun geslacht. Daarnaast moeten AI-systemen met een hoog risico worden gebouwd met beschermende mechanismen, zoals menselijk toezicht en actielogboeken.
In plaats van deze vereisten te zien als nalevingskosten, moeten ze worden gezien als kwaliteitseisen die de betrouwbaarheid en het concurrentievermogen vergroten. Door de eisen van de AI-wet na te leven, kan de leverancier van AI-systemen aantonen dat zijn systeem van hoge kwaliteit is, waardoor het gemakkelijker kan worden ingezet en gecommercialiseerd.
AI-regelgeving is onontgonnen terrein en dat betekent dat veel details van de AI-wet nog moeten worden gespecificeerd. We moeten ons nu voorbereiden op de AI-wet, zodat de systemen die momenteel worden ontwikkeld en de ontwikkelings- en implementatiepraktijken in overeenstemming zijn met de aankomende wet. Organisaties zullen bijvoorbeeld moeten definiëren welke AI-systemen kunnen worden gebruikt en voor welke taken, wat voor soort gegevens in het systeem mogen worden ingevoerd en hoe het personeel wordt opgeleid om de AI te gebruiken. Het definiëren van nieuwe processen wanneer de vereisten van de AI-wet al actief zijn, kan kostbaar zijn.
Voorbereiding op de AI-wet is een hoeksteen van holistisch AI-management. Dit managementmodel is ook een strategie die hand in hand gaat met praktische AI-proeven. Hoogwaardig AI-management zorgt er niet alleen voor dat de regelgeving wordt nageleefd, maar maakt ook de duurzame creatie van waarde door het gebruik van artificiële intelligentie mogelijk. Daarom is de voorbereiding op de AI-wet voor velen de eerste stap naar ethisch AI-management, wat alleen maar goed kan zijn voor de ontwikkeling van AI.
Getekend
- Salla Westerstrand, AI Designer en AI ethicus, Solita Oy
- Aleksi Nieminen, Senior Legal Counsel, Solita Oy
- Joris Haelterman, Country Director, Solita Belgium