Het ethische belang van explainable AI
Aanmelden
ArtificiaI Intelligence (AI) vindt meer en meer haar weg in organisaties. Tegelijkertijd is er steeds meer bewustzijn dat we AI ethisch verantwoord moeten inzetten. Dit wordt ook wel “human-centric of trustworthy AI” genoemd. Een van de principes hiervan is dat AI-toepassingen uitlegbaar moeten zijn. Maar wat betekent dat? En is dat in alle gevallen noodzakelijk? In zijn presentatie gaat Martin van den Berg in op wat explainable AI inhoudt, waarom het van belang is en wanneer het van belang is. Ook gaat hij in op hoe je uitlegbaarheid als een van de ethische principes kunt implementeren in AI-toepassingen, welke methoden en technieken voorhanden zijn en wat de uitdagingen hierbij zijn, mede in de context van de informatievoorziening en enterprise architectuur van een organisatie. Een en ander wordt geïllustreerd met onderzoeksresultaten en praktijkvoorbeelden.
Martin van den Berg is werkzaam als associate professor bij het lectoraat Artificial Intelligence van de Hogeschool Utrecht. Hij leidt de onderzoekslijn explainable AI en begeleidt masterstudenten tijdens hun thesisfase. Martin is afgestudeerd bedrijfseconoom, is gepromoveerd op onderzoek naar hoe enterprise architectuur kan bijdragen aan betere besluitvorming over IT en heeft bijna 40 jaar werkervaring in de ICT. Hij is ook fellow van het KNVI. Voor een compleet profiel zie hier.