Moeten we kunstmatige intelligentie centraal zetten bij de Europese Verkiezingen? Volgens een ingezonden brief in het FD wel. De oproep is begrijpelijk, maar ook een tikkeltje naïef. Wet- en regelgeving kan de ontwikkelingen van technologie namelijk al lang niet meer bij houden. Tegen de tijd dat de overheid zich heeft uitgesproken over ethische kwesties, is kunstmatige intelligentie alweer drie stappen verder.
Bovendien zijn we in een wedloop verwikkeld met China en de VS. Dat betekent dat Europese bedrijven erop gebrand zijn om door te gaan met ontwikkelen om geen verdere achterstand op te lopen. De enige manier om dat te doen en toch verantwoord om te gaan met kunstmatige intelligentie, is dat we de bestaande wet- en regelgeving gebruiken om AI te toetsen.
Daar moeten bedrijven die zich met deze technologie bezighouden wel iets aan doen. Zij moeten ervoor zorgen dat de redenering van een beslissing op basis van algoritme transparanter wordt. Als zij de motorkap openen en laten zien wat er gebeurt, dan komen we ook uit bij de kern van het probleem: vooroordelen zitten niet in algoritmes, maar altijd in de data waarop deze algoritmes worden toegepast. Dat geldt ook voor de voorbeelden die Axel Arnbak noemt: als vrouwen worden afgewezen voor hoge IT-functies, dan komt dat waarschijnlijk doordat de data in het systeem aangeven dat hoge functies relatief vaak worden bekleed door mannen. Je kunt daar het algoritme niet de schuld van geven, dat baseert zich op historische data.
Algoritmes discrimineren niet, ze kunnen juist worden ingezet om discriminatie bloot te leggen en op te lossen, mits de beslissingen transparant worden. Als we met AI kunnen aantonen dat er in het verleden niet geheel vooroordelenvrije beslissingen zijn gemaakt, dan kunnen we daar iets aan veranderen. Daar is geen aanpassing in de wet voor nodig, want discriminatie is al verboden.
Er is zelfs een actieve beweging binnen AI die ervoor pleit om de techniek begrijpelijk te maken: explainable AI (XAI) is een vorm van kunstmatige intelligentie die eenvoudig uit te leggen is en kan worden vertrouwd – of op zijn minst getoetst aan bestaande wet- en regelgeving. Dit is het tegenovergestelde van zogeheten ‘black box machine learning’: dat je eigenlijk zelfs als ontwikkelaar ook niet zo goed weet hoe een computer tot een bepaalde keuze is gekomen.
Uitlegbare kunstmatige intelligentie (XAI) is in mijn ogen belangrijker dan nieuwe wet- en regelgeving, die toch altijd achter de werkelijkheid aan zal hobbelen – of zelfs nieuwe ontwikkelingen tegenhoudt omdat er nog geen nieuwe wetten voor zijn. Maar het betoog van Axel Arnbak is zeker niet voor niets: net als hij zijn er veel Nederlanders die zich zorgen maken over de ontwikkeling van AI. Daarom roep ik de hele sector op om de motorkap open te maken en mensen (veel meer dan nu het geval is) mee te nemen in de ontwikkeling van deze technologie.
Meer info over uitlegbare AI en het onderzoek dat wij uitvoeren: https://research.infosupport.com/artificial-intelligence/