Leestijd: 2 min (read)

In mijn wekelijkse radioprogramma De Digitale Media (Omroep Flevoland) had ik het deze week over het thema kunstmatige intelligentie (AI). Dit naar aanleiding van de zorgen die zowel Sergey Brin (Google) als Elon Musk (Tesla) publiekelijk hadden uitgesproken over de mogelijk negatieve gevolgen van AI op ons dagelijks leven.

In essentie zijn de zorgen van Brin en Musk voor een belangrijk deel terug te voeren op de sociale gevolgen van het vastleggen van morele en ethische dilemma’s in algoritmes.

Eén zo’n moreel dilemma, het Trolley probleem, wordt hieronder mooi uitgelegd:

Afhankelijk van persoonlijke afwegingen, al dan niet gevoed vanuit geloof, overtuiging, sociale context of anderzins, maakt ieder voor zich in dergelijke situaties een eigen keuze. Die zelfbeschikking over de keuzes die we maken geven ons de mogelijkheid onszelf te ontdekken, te definiëren en te onderscheiden.

Niet de mens, maar de machine

Maar wat nu als belangrijke beslissingen niet meer door ons zelf, maar door een algoritme wordt genomen? Dat kan verstrekkende gevolgen hebben.

Stel, je rijdt met je zelfsturende auto op een doorgaande weg. Plots verschijnt er een kind op een fietsje voor de auto. De remmen werken niet. De AI van de auto besluit uit te wijken. Links in de middenberm wacht een gezinnetje, rechtsvoor wacht een oude vrouw bij het voetgangersstoplicht, geheel rechts staat een muur. Wat doet de auto?

De AI in de auto zou ervoor kunnen kiezen om uit te wijken naar rechts en de oude vrouw omver te rijden: het heeft, vanuit het principe van utilisme, razendsnel berekend wat het minst schadelijk is voor de maatschappij. Maar wat nou als die oude dame je oma is?

Vragen schieten me door het hoofd:

  • Had je er dan zelf niet voor gekozen om de auto tegen de muur te laten rijden? En hoe ga je als mens om met de gevolgen?
  • Koop je straks een auto omdat het een ‘ethisch en moreel kompas’ heeft wat het best bij jou past? En wat zegt dat dan over jou?
  • En hoever zitten we daarna nog af van de roep naar een ‘onafhankelijke’ rating?

Dat laatste blijkt niet zo heel ver weg. In China verplicht de overheid burgers nu al deel te nemen aan een Social Credit System – een reputatiesysteem waarin het gedrag en de bijdrage die de burger levert aan de maatschappij wordt omgezet in een rapportcijfer. Wat nou als de Chineze overheid autofabrikanten in al haar wijsheid straks verplicht om dit Social Credit System te koppelen aan de AI van elke zelfrijdende auto in China? Wie zoet is krijgt lekkers, wie stout is ..?

Ergo, ik begrijp Brin en Musk wel. Met het uit handen geven van de besturing van dergelijke projectielen geven we impliciet de verantwoordelijk over ons handelen uit handen. En de grote vraag is: wat doet dat straks met ons?

LAAT EEN REACTIE ACHTER

Please enter your comment!
Please enter your name here

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.