Articles

Wapens van mathematische vernietiging: hoe algoritmes onze vooroordelen versterken

Artificiële Intelligentie (A.I.) versterkt onze vooroordelen inzake geslacht, leeftijd en ras, omdat eens deze vooroordelen in de algoritmes worden geprogrammeerd, ze naar verloop van tijd enkel worden uitvergroot. Dat zegt de De American Civil Liberties Union (ACLU), de ngo die opkomt voor de vrijheden en rechten van Amerikaanse burgers, op basis van een reeks onderzoeken.

Algoritmes zijn niet meer dan opinies van bepaalde mensen op basis waarvan computerprogramma’s worden geschreven, met vaak grote gevolgen. “Maar niemand die er zich druk om maakt,” is de ontnuchterende conclusie.

Computers kunnen geen vooroordelen herkennen

Op de MobileBeat-conferentie die vorige week in San Francisco werd georganiseerd, legde Mike Curtis, de VP of Engineering bij Airbnb, het als volgt uit:

“Een van de beste manieren om vooroordelen te bestrijden is door er zich bewust van te zijn. Wanneer je je van vooroordelen bewust bent kan je proactief handelen. Maar computers bezitten die vaardigheid niet. Ze kunnen geen vooroordelen herkennen uit de gegevens die hen zijn meegegeven”.

Airbnb tracht zijn algoritmes in die mate te optimaliseren dat ze de gebruikerservaring verbeteren wanneer een verblijf wordt geboekt. Maar een blanke klant die vooroordelen heeft met betrekking tot bijvoorbeeld ras, zal een betere gebruikerservaring rapporteren wanneer hij enkel blanke gastheren of -vrouwen te zien krijgt. Om het streefdoel te realiseren van een open, niet-discriminerend platform, moeten de programmeurs van Airbnb eerst zulke patronen herkennen willen ze discriminatie tegengaan, om daarna dan overeenkomstig te gaan programmeren.

Algoritmes tonen zich toleranter tegenover blanke dan tegenover zwarte gevangenen

ProPublica, een Amerikaanse vzw die onderzoeksjournalistiek promoot, deed onderzoek naar een computerprogramma dat advies geeft omtrent welke gevangenen wel en welke niet onder voorwaarden (on parole) vrij mochten worden gelaten. Wat bleek?

Het programma toonde zich veel toleranter tegenover blanke dan tegenover zwarte gevangenen.

Zo wordt de kans op recidivisme onder meer berekend op basis van het gegeven of de vader van de gevangene al dan niet ooit in de gevangenis zat. Mocht een advocaat zulke informatie tijdens een rechtszaak opbrengen, dan zou de rechter hem gewoon vertellen dat het aanvoeren van zulk argument tegen de grondwet indruist…

Waarom is dit belangrijk?

Silicon Valley en alleen Silicon Valley heeft de macht om dit soort beslissingen te nemen, maar met de schandalen waarin vele van de grote bedrijven (Google, Uber, Tesla,…) in deze regio recent verzeild zijn geraakt in het achterhoofd, is de vrees gegrond dat we hier niet te veel van moeten verwachten.

Deze problematiek vormt ook de kern van het boek  Weapons of Math Destruction van Cathy O’Neil en werd door de auteur toegelicht tijdens een recente TED-conferentie. Zij wilde de algoritmes inkijken op basis van dewelke leraars in New York worden geëvalueerd. Wat bleek ? Ze waren geheim…

Als u wil begrijpen wat op ons afkomt, zijn onderstaande 12 minuten goed besteed.

Tags
Show More

Express wordt Business AM

Close
Close