We're the leading agency in artificial intelligence & machine learning

   +31 6 53 64 34 73   St. Jacobsstraat 12, Utrecht

Ethiek en Maatschappij

Hier vind je de stellingen gericht op de ethische en maatschappelijke implicaties van generatieve AI. Denk aan vraagstukken over privacy, verantwoordelijkheid, en de impact van AI op de arbeidsmarkt.

Per stelling lees je een korte uitleg en de stellingname van Aigency. Wat vinden wij van de stelling. Het is belangrijk om te weten dat er geen goed of fout is, maar dat onze stellingname kan helpen ter inspiratie.

ETHIEK EN MAATSCHAPPIJ

Wij stellen interne data beschikbaar aan Large Language Models

Uitleg

Deze stelling gaat over de keuze om bedrijfsinterne gegevens te gebruiken in combinatie met Large Language Models, zoals GPT-varianten. Deze beslissing brengt een breed scala aan overwegingen met zich mee, waaronder de bescherming van privacygevoelige informatie, het waarborgen van gegevensbeveiliging en het naleven van relevante wetgeving zoals de AVG (Algemene Verordening Gegevensbescherming).

Overwegingen

  • Overwegingen bij de stelling: Privacy en Vertrouwelijkheid: In hoeverre bevat de interne data persoonlijke of vertrouwelijke informatie?
  • Data governance: Wie heeft zeggenschap over de data en hoe wordt de kwaliteit gewaarborgd?
  • Veiligheid: Hoe wordt de data beveiligd tegen ongeoorloofde toegang of gebruik?
  • Intellectueel eigendom: Hoe wordt omgegaan met de eigendomsrechten van de data?
  • Compliance: Voldoet het delen van data aan de relevante wet- en regelgeving?
  • Toestemming van betrokkenen: Is er toestemming van degenen die bij de data betrokken zijn?

Aigency: Eens

We zijn het eens met de stelling omdat de integratie van interne data met Generatieve AI en LLM’s de potentie heeft om onze operationele efficiëntie te verhogen en de dienstverlening te verbeteren. Het beschikbaar stellen van deze data maakt het mogelijk om meer gepersonaliseerde en relevante antwoorden te genereren, zoals in het geval van onze eigen AI-assistent die vragen over Best Practices en arbeidsvoorwaarden kan beantwoorden.

Door het bouwen van AI-assistenten voor onze klanten kunnen zij waardevolle resources zoals handleidingen, managementrapportages en FAQs toegankelijker maken. Dit versterkt niet alleen onze interne processen maar biedt ook aanzienlijke waarde voor onze klanten. Uiteraard houden we hierbij rekening met de nodige voorzorgsmaatregelen op het gebied van privacy, data governance, veiligheid, intellectueel eigendom en compliance om ervoor te zorgen dat onze praktijken overeenstemmen met zowel onze eigen ethische standaarden als de geldende wet- en regelgeving.

ETHIEK EN MAATSCHAPPIJ

Het is essentieel om de bronnen en training van AI-systemen te controleren om ethische integriteit te waarborgen

Uitleg

Deze stelling stelt dat toezicht op de bronnen en de manier waarop kunstmatige intelligentiesystemen worden getraind van cruciaal belang is om ethische principes binnen AI te handhaven. Het impliceert dat er een directe link is tussen de controle van deze aspecten en het behoud van ethische waarden zoals rechtvaardigheid, transparantie en verantwoordelijkheid binnen AI-systemen.

Overwegingen

Deze stelling benadrukt het belang van het nauwkeurig monitoren van de data en methoden die gebruikt worden voor het trainen van AI-systemen. De kwaliteit en aard van de trainingsdata hebben directe invloed op het gedrag en de beslissingen van AI. Onzorgvuldigheid hierin kan leiden tot bevooroordeelde, onjuiste of onethische uitkomsten.

Aigency: Oneens

Hoewel de intentie achter de stelling nobel is, is het in de praktijk niet altijd haalbaar om de bronnen en trainingsmethoden van Generatieve AI-systemen volledig te controleren. Generatieve AI-systemen, zoals ChatGPT, Midjourney, etc. worden vaak getraind met enorme datasets die data uit een veelheid van bronnen bevatten, wat het toezicht en de validatie van elke individuele data-eenheid praktisch ondoenlijk maakt. Bovendien kan de complexiteit van de algoritmes, met name in het geval van Generatieve AI, een ‘black box’ creëren waarvan het moeilijk, zo niet onmogelijk, is om alle interne processen te begrijpen en te verifiëren.

Het waarborgen van ethische integriteit in Generatieve AI vereist daarom een andere benadering. We leggen daarom bijvoorbeeld meer nadruk op het ontwerpen van systemen die robuust zijn tegenover bias en die transparantie bieden over hun besluitvormingsprocessen. Ook implementeren we volgens standaarden en reguleringen die een ethisch kader bieden waaraan AI-systemen moeten voldoen, in plaats van te proberen elke bron en elk aspect van de training te controleren. Dit is een meer praktische en uitvoerbare aanpak zijn die nog steeds de ethische integriteit van AI-systemen bevordert.

ETHIEK EN MAATSCHAPPIJ

Organisaties moeten transparant zijn over het gebruik van AI in hun besluitvormingsprocessen

Uitleg

De stelling benadrukt het belang van openheid door organisaties over de manier waarop kunstmatige intelligentie wordt ingezet binnen hun besluitvormingsprocedures.

Overwegingen

Het suggereert dat er een verwachting of verplichting is voor organisaties om informatie te verstrekken over de rol die AI speelt in het maken van beslissingen, wat kan bijdragen aan verantwoording en begrip bij degenen die door deze besluiten worden beïnvloed.

Aigency: Oneens

We zijn het oneens met de stelling dat organisaties altijd transparant moeten zijn over het gebruik van AI in hun besluitvormingsprocessen, omdat de noodzaak van transparantie afhangt van de context en de aard van de beslissingen die door het AI-systeem worden genomen. Er zijn AI-systemen die functioneren binnen domeinen zoals predictive maintenance, waarbij de AI voorspellingen doet over het onderhoud van machines en apparatuur. Deze toepassingen hebben over het algemeen geen directe impact op individuen en vereisen daarom wellicht geen hoge mate van transparantie.

Echter, in situaties waar AI-beslissingen wel directe invloed hebben op mensen, zoals bij kredietverlening, medische diagnoses of recruitment, is transparantie cruciaal. In deze gevallen kunnen de beslissingen van AI-systemen significante gevolgen hebben voor de levens en welzijn van individuen, en is het van belang dat deze systemen begrijpelijk en controleerbaar zijn voor degenen die ze beïnvloeden. Transparantie in dergelijke scenario’s bevordert vertrouwen, verantwoordelijkheid en de mogelijkheid om besluiten te beoordelen en aan te vechten indien nodig. Het onderscheid maken tussen situaties die wel of geen transparantie vereisen, is een belangrijke stap in het verantwoord implementeren van AI binnen organisaties.

ETHIEK EN MAATSCHAPPIJ

Generatieve AI moet bij ons aan strikte ethische richtlijnen volgen om misbruik van technologie te voorkomen

Uitleg

Deze stelling gaat over de ethische normen en richtlijnen in het gebruik van generatieve AI binnen organisaties. In de stelling zit de vraag of er een noodzaak is om verantwoordelijk en bewust om te gaan met AI-technologieën, gezien hun potentieel voor misbruik, zoals inbreuken op privacy, het creëren van misleidende informatie, of het versterken van vooroordelen.

Overwegingen

Over de stelling dat generatieve AI moet voldoen aan strikte ethische richtlijnen om misbruik te voorkomen, kunnen diverse overwegingen een rol spelen. Hier volgen enkele belangrijke punten:

  • Balans tussen innovatie en regulering:
    Er is een delicate balans nodig tussen het stimuleren van innovatie en het waarborgen van ethische toepassing van AI. 
  • Impact op mensen:
    De mate waarin AI-systemen mensen beïnvloeden is cruciaal. Generatieve AI kan worden gebruikt voor doeleinden variërend van kunst tot het genereren van nepnieuws.
  • Uitvoerbaarheid en handhaving:
    Overwegingen over hoe naleving wordt gecontroleerd en wat de gevolgen zijn van niet-naleving zijn essentieel.
  • Transparantie en verantwoordelijkheid:
    Is er een strijdig bedrijfsbelang tussen transparantie over hoe AI-systemen werken en besluiten nemen en belangen zoals intellectueel eigendom en concurrentievoordeel?
  • Inclusie en diversiteit:
    Bij het opstellen van ethische richtlijnen is het belangrijk dat een breed scala aan perspectieven wordt meegenomen, zodat de AI-systemen recht doen aan de diversiteit van de gebruikers en degenen die erdoor worden beïnvloed.
  • Technologische ontwikkeling:
    De snelle vooruitgang in AI vraagt om richtlijnen die flexibel genoeg zijn om met nieuwe technologieën en toepassingen om te gaan.

Aigency: Eens

We zijn het eens met de stelling dat generatieve AI aan strikte ethische richtlijnen moet voldoen, vooral wanneer deze technologieën invloed hebben op mensen. AI heeft de potentie om onze levens op ingrijpende wijze te beïnvloeden, en daarom is het belangrijk dat AI-toepassingen in lijn zijn met onze normen en waarden. De richtlijn “AI versterkt de mens” weerspiegelt ons streven naar technologieën die menselijk welzijn en vooruitgang bevorderen, zonder dit ten koste te laten gaan van ethische principes.

Hoewel ethiek complex is en niet eenvoudig in een checklist te vatten, bieden richtlijnen zoals de “7 key requirements for Trustworthy AI” van de EU en de IAMA (Institute for Applied AI Ethics) een fundament voor het identificeren van ethische risico’s en het vormgeven van ons ethisch kader. Deze instrumenten helpen ons om de grenzen te bepalen waarbinnen we als organisatie willen opereren, die soms kunnen afwijken van persoonlijke ethische grenzen van individuele medewerkers.

Het volgen van deze richtlijnen is niet alleen belangrijk om misbruik te voorkomen, maar ook om de integriteit van onze bedrijfsprocessen te handhaven. Daarnaast helpt het bij het behouden en versterken van het vertrouwen van gebruikers en de maatschappij in AI. Een verantwoordelijke benadering van generatieve AI is dus essentieel voor zowel het beschermen van individuen als het bevorderen van maatschappelijk verantwoord innoveren.

ETHIEK EN MAATSCHAPPIJ

Duurzaamheid speelt bij ons een rol in de keuze voor het gebruik van Generatieve AI

Uitleg

Deze stelling benadrukt dat bij het overwegen van de implementatie van Generatieve AI, duurzaamheidsaspecten een factor zijn. Dit houdt in dat het energieverbruik en de milieueffecten van Generatieve AI-systemen worden meegewogen in de besluitvormingsprocessen.

Overwegingen

  • Energie-efficiëntie: In welke mate draagt het gebruik van Generatieve AI bij aan het energieverbruik van de organisatie?
  • Milieu-impact: Wat zijn de bredere ecologische gevolgen van de rekenintensieve processen die Generatieve AI met zich meebrengt?
  • Alternatieve oplossingen: Zijn er minder resource-intensieve technologieën of processen die dezelfde doelen kunnen bereiken?
  • Kosten en baten: Wegen de voordelen van Generatieve AI op tegen de potentiële milieu- en energiekosten?
  • Innovatie t.o.v. duurzaamheid: Hoe kan de organisatie innovatie doorvoeren zonder duurzaamheidsdoelstellingen uit het oog te verliezen?

Aigency: Eens

Wij erkennen dat Generatieve AI, en AI in het algemeen, aanzienlijke hoeveelheden energie kan verbruiken, wat een impact heeft op de duurzaamheid. Bij het ontwerpen van AI-oplossingen overwegen we daarom zorgvuldig of de inzet van Generatieve AI de meest efficiënte optie is in termen van energieverbruik en ecologische voetafdruk.

We onderzoeken alternatieven die mogelijk minder energie-intensief zijn, zoals standaard softwareontwikkeling, het aanpassen van handmatige processen, of het verminderen van taken die niet essentieel zijn.

Ons commitment aan duurzaamheid betekent dat we proactief zoeken naar manieren om de energie-efficiëntie te maximaliseren en de milieu-impact van onze technologiekeuzes te minimaliseren. Dit kan inhouden dat we kiezen voor providers van Generatieve AI die duurzame energiebronnen gebruiken of die efficiëntere algoritmes hebben ontwikkeld. Door deze benadering kunnen we onze verantwoordelijkheid nemen voor de milieu-impact van onze technologische beslissingen en tegelijkertijd de innovatieve kracht van AI benutten waar dit het meest geschikt is.

ETHIEK EN MAATSCHAPPIJ

Het klonen van mijn stem is voor mij persoonlijk acceptabel

Uitleg

De stelling gaat over de persoonlijke bereidheid om technologie toe te staan een digitale kopie of een ‘klonen’ van iemands stem te maken. Dit kan voor diverse doeleinden gebruikt worden, zoals spraaksynthese of virtuele assistenten.

Overwegingen

  • Persoonlijke grenzen: In hoeverre voelt het individu zich comfortabel bij het idee dat hun unieke stemgereproduceerd wordt?
  • Privacy: Welke garanties zijn er dat de gekloonde stem niet wordt misbruikt?
  • Toestemming en controle: Heeft het individu volledige controle over hoe en waar de gekloonde stem wordt gebruikt?
  • Lichamelijke integriteit: In welke mate wordt stemklonen gezien als een inbreuk op de lichamelijke integriteit?

Aigency: Joker

Als organisatie staan we neutraal tegenover het klonen van stemmen; we zijn noch expliciet voor noch tegen. Het belangrijkste is dat de toestemming en voorkeuren van het individu te allen tijde worden gerespecteerd. De keuze om al dan niet een stem te klonen is een persoonlijke en moet worden beschouwd als een onderdeel van iemands lichamelijke integriteit.

In onze organisatie heeft elke medewerker de vrijheid om zonder opgaaf van redenen te weigeren hun stem te laten klonen. Dit beleid waarborgt de persoonlijke autonomie en respecteert de privacy van onze medewerkers. Als een medewerker instemt met het klonen van hun stem, zal dit altijd gebeuren binnen een duidelijk omschreven kader dat het ethische gebruik waarborgt en de rechten van het individu beschermt. Dit kan betekenen dat er strikte richtlijnen zijn voor de contexten waarin de gekloonde stem gebruikt mag worden en dat er maatregelen worden getroffen om misbruik te voorkomen.

ETHIEK EN MAATSCHAPPIJ

Er zijn doeltreffende strategieën beschikbaar om vooroordelen in generatieve AI-algoritmen te verminderen

Uitleg

Deze stelling veronderstelt dat er methoden en technieken bestaan die de bias, ofwel systematische vertekening, in generatieve AI-modellen kunnen identificeren en verminderen.

Overwegingen

  • Complexiteit van bias: Het herkennen en begrijpen van de verschillende soorten vooroordelen die in AI-systemen kunnen voorkomen.
  • Datarepresentatie: Hoe representatief en divers zijn de datasets die gebruikt worden voor het trainen van AI?
  • Transparantie en interpretatie: Kunnen we voldoende inzicht krijgen in hoe AI-algoritmen beslissingen nemen?
  • Voortdurende evaluatie: Hoe vaak en hoe grondig worden AI-systemen beoordeeld op vooringenomenheid?
  • Betrokkenheid van diverse groepen: Worden stakeholders met diverse achtergronden betrokken bij het ontwikkelen en evalueren van AI-systemen?

Aigency: Eens

We zijn het eens met de stelling omdat er verschillende strategieën bestaan die vooroordelen in generatieve AI kunnen verminderen. Deze strategieën omvatten onder meer het gebruik van gediversifieerde en evenwichtig samengestelde datasets, het toepassen van algoritmen die vooroordelen kunnen detecteren en corrigeren, en het doorvoeren van ontwerpkeuzes die fairness bevorderen.

Een belangrijke methode is het gebruik van audits en bias impact assessments voor en na het uitrollen van AI-systemen. Daarnaast is het betrekken van multidisciplinaire teams met een breed scala aan perspectieven essentieel om blinde vlekken in het ontwerp- en ontwikkelingsproces te verminderen. Onderzoek naar en investeringen in explainable AI (XAI) dragen bij aan de transparantie en het begrip van hoe algoritmen werken, wat essentieel is om vooroordelen te identificeren en aan te pakken (zie ondermeer onze onderzoeken naar explainable AI).

Verder is continue monitoring en herziening van AI-systemen in praktijkomgevingen noodzakelijk om onbedoelde effecten op te sporen en te corrigeren. Het implementeren van deze en andere strategieën is geen eenmalige actie, maar een doorlopend proces dat vraagt om een toegewijde aanpak. Zo verzekeren we ons ervan dat onze AI-systemen zo objectief en eerlijk mogelijk functioneren.