Kwintessens
Geschreven door Koen Schoors
  • 6239 keer bekeken
  • minuten leestijd
  • Reacties

10 december 2020 Artificiële intelligentie zit tussen hoop en vrees
Bij het gebruik van artificiële intelligentie om beslissingen van bedrijven of overheden mee te sturen hoort een stevige bijsluiter.
De angst dat artificiële intelligentie (AI) de mensheid zal overvleugelen, is ouder dan ik. Ray Solomonoff, de grondlegger van de algoritmische informatietheorie en de vader van AI, waarschuwde in 1967 al voor de technologische singulariteit. Machines bereiken dan plots een collectieve intelligente die hun menselijke meesters overstijgt. Dat leidde tot de vrees dat die singulariteit de mensheid als een probleem zou beschouwen en zou willen uitschakelen. Stephen Hawking en Elon Musk hebben die bezorgdheid uitdrukkelijk geuit. De meest expliciete verwoording in de populaire cultuur vinden we in de iconische film 'The Matrix', wanneer agent Smith, een algoritme dat deel uitmaakt van de singulariteit, bij de ondervraging van Morpheus zegt: 'Human beings are a disease, a cancer of this planet. You're a plague and we are the cure'.
_Het hellend vlak van solidariteit naar individuele verantwoordelijkheid
Mij lijkt het dat we behoorlijk ver van die singulariteit af staan en dat er andere dingen zijn om ons zorgen over te maken. Een eerste bekommernis is dat AI ons technisch in staat stelt het domein van de individuele verantwoordelijkheid uit te breiden ten koste van het steeds kleinere domein van de solidariteit. Als mensen moeten kiezen hoe ongelijk de verdeling van inkomens en toegang tot gezondheidszorg mag zijn – als ze hun plaats in die verdeling nog niet kennen –, kiezen de meesten voor een redelijk gelijke inkomensverdeling en een gelijke toegang tot de gezondheidszorg. De sluier van onwetendheid noemt John Rawls dat in zijn boek A Theory of Justice.
AI heeft de potentie die sluier van onwetendheid weg te nemen en de solidariteit te ondergraven. Stel dat iedereen een uniek, digitaal patiëntendossier krijgt dat doktersbezoeken, diagnoses, voorschriften en testuitslagen bijhoudt. Voeg daar de data aan toe over je bewegingspatroon, je aankopen en je eetgewoonten, en misschien ook een genetisch profiel met voorbeschiktheid voor bepaalde kwalen. Met die data kunnen algoritmes betrouwbare individuele gezondheidsscores berekenen en je op basis daarvan de voeding en de levensstijl voorschrijven die je medische kostprijs voor de gemeenschap minimaliseren. Uiteindelijk kunnen we besluiten sommige behandelingen uit te sluiten als je score te laag is, want die lage score is in een volledig kenbare en risicovrije wereld je eigen schuld. Dag solidariteit, hallo verantwoordelijkheid.
_Aura van objectiviteit
Zelfs als dat gebeurt met de beste bedoelingen, ligt de weg naar wantoestanden wagenwijd open. AI is niet neutraal. Ze traint zichzelf op data van bestaande patiëntendossiers en giet wat structureel fout zat in algoritmes. Zo krijgen bestaande wantoestanden een objectief en wetenschappelijk aura. Stel dat mensen van een bepaalde afkomst of geslacht structureel gediscrimineerd worden bij de doorverwijzing voor een noodzakelijke operatie, dan zal het algoritme die discriminatie overnemen en een aura van objectiviteit verlenen. Dat vergroot de bestaande ongelijkheden in de toegang tot een behandeling.
Techreuzen als Amazon, IBM, Facebook en Microsoft verkopen al jaren gezichtsherkenningssoftware aan politiediensten in de VS. Amazon is een van de marktleiders, onder de merknaam Rekognition. De voorbije jaren bleek die software door vooroordelen en scheeftrekkingen in de trainingsdata veel beter in het herkennen van blanke gezichten dan in gezichten van zwarten of andere etnische minderheden, met discriminatie in het opsporings- en afdwingingsbeleid tot gevolg.
Het tragische overlijden van Floyd George, door Amerikaanse agenten in het openbaar vermoord, en de massale protestacties van de Black Lives Matter-beweging brachten de producenten van de software zwaar in de problemen. Op 11 juni kondigde Amazon een moratorium van een jaar af op het politioneel gebruik van Rekognition. Microsoft legde alles voorlopig stil. IBM stapte volledig uit de ontwikkeling van dergelijke software. Bij Facebook bleef het stil.
_Vooroordelen hebben diepe wortels
Een nog dieper onderliggend probleem is dat vooroordelen stevige wortels hebben in onze taal en cultuur. AI-algoritmes zijn zo accuraat dat ze in teksten de vooroordelen over moreel gevoelige onderwerpen als huidskleur of gender reproduceren en met een onterecht aura van wetenschappelijkheid en objectiviteit omhullen. Algoritmes hebben niet het verbeeldingsvermogen of het moreel kompas om zich een gewenste maatschappelijke verandering, zoals vrouwenemancipatie of rassengelijkheid, in te beelden. AI is inherent conservatief en kan gemakkelijk misbruikt worden om bestaande machtsstructuren, zoals het patriarchaat, slavernij, een communistische dictatuur, een technocratische elite of discriminatie, in stand te houden.
Opgelet dus met het gebruik van AI bij het sturen van beslissingen van bedrijven of overheden.
_Deze tekst verscheen eerder in De Tijd (2/12/2020)
Kwintessens
Koen Schoors is hoogleraar economie aan de Universiteit Gent.
_Koen Schoors -
Meer van Koen Schoors

_Recent nieuws

Bekijk alle nieuwe berichten

_Populair nieuws

Bekijk meer populair nieuws