Human-Centered AI| Blogseries Generative AI

JoinSeven
8 min readNov 30, 2023

--

Introduction

Welkom terug bij onze blogserie over Generatieve AI. Afgelopen weken schreven we over drie van de zes succesfactoren voor ieder AI-project: Een sterke use case, een solide technisch fundament en de keuze voor AI-modellen. Deze week richten we op de vierde succesfactor: Mensgerichte AI. Onze collega Jet Wardenier doet hier momenteel onderzoek naar als afstudeerscriptie voor haar HBO-ICT studie. Hieronder staat een eerste blik op de inzichten uit haar onderzoek naar dit onderwerp.

Ontwrichtend effect van AI

Zoals we in het eerste blog schreven, oefent (Generatieve) AI in rap tempo veel invloed uit op ons dagelijkse leven. Het ontwricht en beïnvloedt allerlei sectoren, zoals gezondheidszorg, onderwijs en openbare diensten. De ontwikkeling en het gebruik van AI roept terechte vragen op: Hoe zorgen we ervoor dat deze technologie ten gunste voor de maatschappij wordt ingezet? En hoe kunnen we erop toezien dat dat ook daadwerkelijk gebeurt? Niet alleen voor ontwikkelaars en gebruikers roept het vragen op, maar ook voor beleidsmakers en wetenschappers.

Voorzichtigheid in de adoptie van AI

GenAI is een sleuteltechnologie die moeilijk volledig te begrijpen is. En in combinatie met het ontwrichtende effect, is het belangrijk dat er beleid en regulering voor komt. Wat we momenteel ook zien, is dat de voorzichtigheid zich vertaalt naar aarzeling, weerstand of angst. Zo lazen we onlangs het bericht dat de overheid het gebruik van (niet-gecontracteerde) AI-software volledig wil verbieden door Rijksambtenaren.

Wij geloven dat de oplossing vooral ligt in het objectief en kritisch blijven. Zo kunnen we innovatie stimuleren en onze kennis uitbreiden. Door onszelf te blijven informeren over AI, de manier waarop het werkt en de potentiële impact ervan, kunnen we de adoptie van deze veelbelovende technologie verantwoord gebruiken en integreren in onze maatschappij.

Zo is de EU AI Act gepland om in werking te treden in 2024, om regulering te bieden voor (hoge risico) AI-systemen. Een voorbeeld van zo’n high-risk system is een AI-systeem die rechtspraak of democratische processen beïnvloedt, of infrastructuur regelt. Ondertussen zijn er talloze frameworks ontwikkeld met als doel het (ethisch) verantwoord en veilig implementeren van AI-oplossingen.

In dit blog lichten we toe wat wij verstaan onder “Verantwoorde” en “Mensgerichte” AI. We gaan in op wat kernthema’s zijn en bieden handvatten om je proactief op te stellen en — met een positief kritische houding — open te staan voor wat deze nieuwe technologie onze maatschappij te bieden heeft.

Kernprincipes Mensgerichte AI

Wanneer we spreken over Verantwoorde AI hebben we het over de verschillende aspecten die bijdragen aan het veilig, betrouwbaar en ethisch verantwoord inzetten van AI. Mensgerichte AI is onderdeel van Verantwoorde AI. Mensgerichte AI stelt de menselijke ervaring centraal, met als doel het ontwikkelen van AI-applicaties die zich aanpassen aan en ondersteunend zijn voor menselijke activiteiten.

Voortbordurend op algemene thema’s in verantwoorde en mensgerichte AI, zoals veiligheid en ethiek, is er beleid en zijn er bijbehorende frameworks ontwikkeld. Binnen JoinSeven hanteren we — mede vanuit het beleid en literatuur — de volgende principes:

Menselijke autonomie

Keuzes maken over de grenzen die je stelt aan AI-oplossing is een essentieel onderdeel van het verantwoord implementeren van AI. AI-systemen moeten een ondersteunende rol kunnen aannemen die de gebruiker motiveert de juiste keuzes te maken. Tegelijkertijd moet het systeem fundamentele rechten in acht nemen. Ga hiervoor na in hoeverre je toepassing gebruikers ondersteunt, stuurt of beïnvloedt om een bepaalde beslissing te nemen. Geef duidelijk aan in welk deel van je proces het systeem actief is. Bij een systeem dat menselijke interactie nabootst, is het belangrijk aan te geven dat gebruikers geen contact hebben met een persoon maar met een systeem. Door een human-in-the-loop (HITL), human-on-the-loop (HOTL) of een human-in-command (HIC) aanpak toe te passen zorg je voor passende (toezichts)maatregelen.

Transparantie

Volledige uitlegbaarheid van de keuzes die je model maakt is niet altijd mogelijk. Het kan hierbij helpen om je te richten op traceerbaarheid en communicatie over de limitaties van je toepassing. Onderneem stappen die kunnen bijdragen aan traceerbaarheid van je uitkomsten, bijvoorbeeld door aan te geven op welke bronnen het systeem zich baseert. En voer kwaliteitschecks uit op de data die je gebruikt. Informeer je gebruikers over de voordelen, het doel, de risico’s en de limitaties van je systeem.

Inclusie en diversiteit

In de gehele life-cycle moet rekening gehouden worden met inclusie en diversiteit. AI-systemen die gebruik maken van data met ingebouwde biases of incompleetheid kunnen als resultaat hiervan discriminerend functioneren, en zo groepen of personen marginaliseren. Denk daarom goed na over welke data je gebruikt, en waar mogelijke bias-gevoeligheid ligt. Implementeer, test en valideer grondig. Pas geen selectieprocedure toe die personen of groepen categoriseert op basis van persoonlijke identiteit of gebruikersprofiel. Zeker in gevoelige domeinen als onderwijs en zorg, waarbij de gevolgen van deze selectieprocedure een grote impact kunnen hebben op de persoon of groep in kwestie, is het raadzaam hier scherp op te zijn.

Privacy

Het recht op privacy is een mensenrecht dat vastgesteld staat in artikel 10 van de Grondwet. Verantwoorde AI-systemen dienen ontwikkeld en geïmplementeerd te worden met oog op anonimiteit, vertrouwelijkheid en de mogelijkheid tot controle. Pas gepast databeheer toe, bijvoorbeeld bij het waarborgen van persoonsgegevens. Volg de vereisten geformuleerd in de de AVG-wet. Wees transparant naar je gebruikers en geef gebruikers de optie hun eigen voorkeuren wat betreft gegevensgebruik te laten instellen.

Milieu en maatschappelijk welzijn

Het continu blootgesteld worden aan AI-systemen kan leiden tot een veranderende kijk op en inrichting van de wereld om ons heen. Hierom moeten niet alleen je directe gebruikers en betrokkenen, maar ook het milieu en de maatschappij als geheel worden gezien als stakeholders in het proces van het implementeren van verantwoorde AI. Met maatschappelijk welzijn hebben we het over het respecteren van democratische processen en de vrijheid voor individuen om hun eigen keuzes te maken. Wat betreft milieu welzijn, moeten we onderzoek naar duurzame oplossingen stimuleren en onszelf informeren wat betreft de verschillende keuzes die gemaakt kunnen worden voor een zo energie-efficiënt mogelijke ingerichting. Op globale schaal zijn voor dit soort kwesties handvatten te vinden in de Sustainable Development Goals van de Verenigde Naties.

Legaliteit

Nieuwe wetten en regelgeving over AI worden ontwikkeld, maar ook huidige algemene wet- en regelgeving kan van toepassing zijn op AI-systemen. Probeer hiervoor zoveel mogelijk up-to-date te blijven van de laatste ontwikkelingen op het gebied van AI-wetgeving, en stel iemand verantwoordelijk voor het naleven van alle wet- en regelgeving.

Praktische handvatten

Mensgerichte AI leidt volgens ons tot maatschappelijk zinvollere toepassingen. Daarom ontwikkelen we momenteel een standaard voor het verantwoord en mensgericht inzetten van (generatieve) AI binnen onze use cases. Hiervoor gaan we in gesprek met stakeholders en doen we onderzoek. Wel kunnen we een aantal algemene adviezen meegeven waarvan wij geloven dat het bijdraagt aan het proactief acteren op dit onderwerp.

Blijf up-to-date, positief kritisch en bewust

Nieuwe ontwikkelingen op het gebied van AI doen zich elke dag voor en deze ontwikkelingen stoppen niet. Dit maakt het onmogelijk dat beleid, onderzoeken of frameworks altijd geheel omvattend zijn. Identificeer relevante bronnen binnen jouw domein en maak er een gewoonte van om regelmatig checks uit te voeren om te valideren dat je AI-toepassingen zich binnen de gedefinieerde kaders bevinden. Wees flexibel en wees bereid om veranderingen door te kunnen voeren binnen je systemen.

Het nadenken over verantwoorde AI is al een eerste stap tot het implementeren ervan. Ethiek is een complex onderwerp en grijze gebieden zul je altijd behouden. Durf kritisch te kijken naar de toepassingen binnen je organisatie en probeer proactief beleid te voeren op bovengenoemde thema’s.

Hanteer een use case specifieke benadering

Elke use case heeft zijn eigen kenmerken, specificaties en uitdagingen. Hoewel het zeker nuttig is om te kijken naar soortgelijke toepassingen, moet er ook rekening gehouden worden met de nuances die elke nieuwe use case met zich meebrengt. Beoordeel per casus opnieuw waar knelpunten liggen en pas op basis hiervan je proces aan.

Test en valideer grondig

Voortbordurend op het principe van menselijke tussenkomst, is het belangrijk om je toepassing grondig te testen. Wanneer we het bijvoorbeeld hebben over prompt engineering, een toepassing van GenAI waarbij het systeem content genereert op basis van door de gebruiker gedefinieerde instructies, zijn deze instructies van groot belang voor het eindresultaat. Een andere formulering van dezelfde prompt kan al leiden tot een compleet andere response. Denk na over het verschaffen van de juiste context en anticipeer op misinterpretatie van je model. Test met verschillende prompts en controleer op welke manier deze veranderingen invloed uitoefenen op je resultaten.

Communiceer

Informeer gebruikers en stakeholders en betrek hen bij het ontwikkelproces. Als je gebruikers op de hoogte zijn van het doel van je toepassing, begrijpen zij beter wat ze doen en waarom bepaalde besluiten zijn genomen. Je gebruikers zullen meer vertrouwen krijgen in je systemen als je transparant bent en eventuele vragen kunt beantwoorden. Betrek je gebruikers van begin tot eind door onderzoek te doen naar de behoeften en pijnpunten die zij ervaren, en in een latere fase te vragen om feedback.

Pas dit ook toe bij het implementeren van een nieuwe generatieve AI-toepassing, wanneer jij en personen om je heen in je organisatie enthousiast zijn over alle mogelijkheden en kansen die GenAI met zich meebrengt, kan dit leiden tot het ‘roze-bril-effect’. Lees, schrijf en praat over GenAI om je eigen visie naar buiten te brengen, op deze manier zul je merken dat je niet alleen gelijkgestemde aantrekt, maar ook personen met conflicterende standpunten. Sta open voor en luister naar deze feedback, en neem deze punten mee in je overwegingen.

Conclusie

In dit blog van de blogserie over Generatieve AI hebben we de vierde succesfactor behandeld: het verantwoord en mensgericht inzetten van (Generatieve) AI. De opkomst van AI brengt complexe uitdagingen met zich mee voor ontwikkelaars, gebruikers, beleidsmakers en wetenschappers. Het is van essentieel belang om goed geïnformeerd en zonder angst, innovatie te omarmen, maar ook kritisch te blijven.

  • We spraken over belangrijke principes wanneer we het hebben over verantwoorde en mensgerichte AI: menselijke autonomie, transparantie, inclusie en diversiteit, privacy, milieu- en maatschappelijk welzijn, transparantie, legaliteit
  • Het is belangrijk om op de hoogte te blijven over nieuwe ontwikkelingen
  • Behandel elke nieuwe use case als een uniek project met eigen uitdagingen (en kansen)
  • Test en valideer grondig en anticipeer op misvattingen van je model
  • Communiceer met gebruikers en stakeholders en omring jezelf met critici om het ‘roze-bril-effect’ te vermijden

Vooruitblik

In de volgende blogs nemen we je mee door alle stappen en overwegingen voor een succesvolle implementatie van GenAI in jouw organisatie. We voorzien je van de benodigde kennis en tools om in jouw organisatie een succesvol AI-project op te zetten. Dus blijf ons volgen en schrijf je in voor de volgende blogs via het formulier hieronder!

Meer weten?

Wil je meer informatie over Verantwoorde en Mensgerichte AI? Jet gaat er graag met je over in gesprek.

Originally published at https://joinseven.nl on November 30, 2023.

--

--

JoinSeven

We increase the impact of organizations through the development of intelligent apps with AI, dashboards and other data-driven applications.