De aftrap wordt gegeven door Erik Gerritsen, die verklapt dat hij als secretaris-generaal bij het ministerie van VWS druk doende is IBM tool Watson Health naar Nederland te halen. Zeker, er zijn kansen en bedreigingen, maar de snelle voortgang van artificiele intelligentie (AI) kunnen we niet tegenhouden. Vragen blijven er genoeg genoeg zo constateert hij. Want wat als de medische diagnose van Watson Health niet klopt? Dan is er nu nog de eigen dokter. Maar anderzijds: Watson is in staat de tientallen medische artikelen die wekelijks verschijnen op een zinvolle manier op te nemen en te verwerken. Wordt Watson daardoor slimmer dan de arts? En hoe erg is dat dan? En inmiddels is er de succesvolle Thuisarts.nl hetgeen door sommigen ook als een vorm van AI wordt beschouwd, Stel dat Thuisarts je aanraadt om af te wachten en je hoeft niet naar de huisarts. En je gaat dood. Moeten dan de nabestaanden de Thuisarts aanklagen? Het rapport Maak Waar levert zeker antwoorden. Maar we zullen elkaar hard nodig hebben zo stelt Gerritsen richting zijn geboeid gehoor.
Kunnen computers rechtspreken
Hoogleraar Jaap van den Herik, heeft in 1991 al een proefschrift verdedigd met de uitdagende titel: Kunnen computers rechtspreken? De toon is daarmee wel gezet zou je denken. Toch zien anno 2017 de meeste juristen computers nog slechts als een prettige ondersteuning bij het efficiënter maken van hun werkzaamheden. Maar de hoogleraar verwacht dat die werkzaamheden ingrijpend gaan veranderen. Disruptie!
Leuker kunnen we het niet maken
Marlies van Eck, werkzaam bij de Belastingdienst, confronteert haar publiek met de volgende opmerking “for what problem are you the solution”. Deze vraag betekent voor de Belastingdienst dat steeds kritisch gekeken wordt naar de inzet van medewerkers.Automatische besluitvorming leidt soms tot bizarre misverstanden, waarvan er een aantal worden gepresenteerd. Je zult soms toch ergens ‘een mens’ in het ketenproces moeten opnemen luidt de conclusie.
Bias of Bajes
Is er bias in een algoritme? Een opmerking vanuit het auditorium van Binnenlandse Zaken blijkt voor tweeërlei uitleg vatbaar en dat veroorzaakt hilariteit. Zeker als bias wordt uitgesproken als bajes. Met bias wordt een vooroordeel (overigens niet altijd bewust!) bedoeld, dat besluitvorming beinvloedt. Tot op het niveau van protocollen en zelfs gerechtelijke uitspraken speelt dat. Want dat is toch de strekking van het betoog van diverse sprekers. Just Stam (Veiligheid en Justitie) betoogt dat dat helemaal verkeerd kan gaan. Daarbij denkt hij aan het dossier van Eric Loomis. Deze man verdwijnt voor zes jaar in de gevangenis (de bajes) op basis van een algoritme. De draconische straf voor een betrekkelijk klein vergrijp komt tot stand op basis van profilering. Maar klopt dat wel? Een rechterlijke dwaling ligt op de loer. Subjectiviteit is eigen aan alle soorten van besluitvorming. Dat blijkt na de pauze wel bij een van de workshops over recente ervaringen bij de landelijke Politie.
Aangifte
Wat is mensenwerk? Het blijkt dat veel politieambtenaren het aangifteprotocol toepassen zonder veel begrip voor de bedoeling van de opstellers. Dus dan is een algoritme misschien een voordeel? Maar moeten we bij gebruik van een algoritme alles weten “van onder de motorkap”. Ook dat helpt niet afdoende als we niet doorgronden wat daar gebeurt. Een cartoon die politie-onderzoeker Bas Deterink toont, laat dat fraai zien. Een persoon die in een blackbox zit, heeft de opgave om Chinese karakters die via de ene kant binnenkomen aan de hand van een woordenboek om te zetten in een andere taal. Dat betekent dan nog niet dat de output die via de andere kant naar buiten komt, altijd glashelder is. Is deze persoon nu aansprakelijk als het anders (verkeerd) wordt uitgelegd? Zo is het ook met een algoritme. Je kunt dit administratief proces niet op de automatische piloot laten verlopen. Kortom, zo veel onderscheid is er toch weer niet. Het is allemaal mensenwerk.
Waterkering
Een goed voorbeeld van een dergelijk risico presenteert Marc Walraven van Rijkswaterstaat in een flitsende voordracht. In 2006 komt Rijkswaterstaat er hardhandig achter dat al jaren toegepaste software die een belangrijk sluizencomplex bedient, stilaan minder betrouwbaar is geworden. Een wake-up call kun je wel zeggen. Zeker als er Kamervragen komen. Dat leidt tot een hernieuwde risico inschatting van alle aspecten van de waterkering, ook de mechanische onderdelen en een reeks van verbeteracties.
Randstad
In de discussie naar aanleiding van een voordracht van Jildert Huitema (Randstad) wordt naar voren gebracht dat vijftigplussers moeilijk aan de slag komen. Zou Randstad daar iets aan kunnen doen? De repliek is overtuigend. Het kan best zijn dat het onder de motorkap ethisch verantwoord toegaat doordat men in het algoritme een geboortedatum van een kandidaat weglaat. Maar dan nog kan het zijn dat het algoritme gaat “leren “- via feedback- dat het toch maar beter is om geen vijftigplussers in te zetten. Ook op andere kenmerken kan men vijftigplussers trouwens eruit filteren. Denk eens aan gegevens uit de cv zoals het jaar van afstuderen of de duur van diverse banen. Kortom ook tamelijk onschuldige gegevens blijken dat toch bij nader inzien niet te zijn. Een ethische kwestie is nu hoe je daar mee omgaat. Overigens heeft Randstad heel veel plezier van de inzet van artificiele intelligentie, want kandidaten kunnen effectief geholpen worden (matching) bij het vinden van passende jobs .
Hans Wanders (CIO Rijk) kan deze dag met tevredenheid afsluiten. Vermeldenswaardig is dat Edgar Heijnen (CIO Rijk) vakkundig en humoristich de voordrachten aan elkaar knoopt. In de pauze worden deelnemers uit de overheidssector verleid om deel te gaan uitmaken van het nieuwe digitale platform dat kennis over artificiele intelligentie zal gaan uitwisselen tussen de ministeries.
Trainees
Artificiele Intelligentie (AI) is in opmars. Wat betekent dat voor onze overheid? Trainees hebben dit opgepakt en dit congres georganiseerd met een aantal praktijkervaringen. Het resultaat een vol auditorium van Binnenlandse Zaken bij het congres artificiële intelligentie (AI): Geautomatiseerde besluitvorming en de overheid op 31 mei 2017 in Den Haag.