Geschillen rond AI

Conflicten rond AI

Auteur: Sieuwert van Otterloo 

De opkomst van veel betere AI-systemen zoals ChatGPT leidt tot veel veranderingen in de samenleving. Iedereen zal hiermee te maken krijgen, van docenten tot dokters tot IT-ers. Vaak zijn het positieve ontwikkelingen, omdat AI tot snellere en betere beslissingen kan leiden. Soms leidt de inzet van AI ook tot problemen of zelf juridische geschillen

Auteursrecht en AI

Er is nog veel onduidelijkheid over auteursrecht en AI. Veel van de data die gebruikt wordt om grote AI-systemen te trainen is auteursrechtelijk beschermd. Hier zit ook veel broncode van computerprogramma’s bij. De makers van AI-systemen zeggen dat de AI altijd nieuwe output genereert en de oorspronkelijke input nooit herkenbaar uit het systeem komt. Dit is echter niet altijd waar: er zijn kunstenaars die gezien hebben dat AI-systemen hun stijl kopiëren.

AI -wordt al ingezet om broncode te schrijven. Bijvoorbeeld in de dienst Co-pilot van Github.  Er is een risico dat code uit copilot niet origineel is, maar inbreuk maakt op andermans code. Bedrijven zullen dus met hun ontwikkelaars afspraken moeten maken of copilot gebruikt mag worden, en wie verantwoordelijk is voor eventueel plagiaat.
Diensten zoals Co-pilot, maar ook anderen modellen, zijn getraind met data van het Internet. Hier is niet altijd toestemming for gevraagd. Volgens de makers van de content is trainen van AI onderzoek en dus vrijgesteld van auteursrecht. Volgens andere partijen, zoals Getty, is gebruik voor AI gewoon gebruik en is daar dus toestemming voor nodig

Het interessante is dat de huidige AI nog geen rekening houdt met watermerken in foto’s. Het watermerk wordt gewoon meegekopieerd. In sommige AI-gegenereerde foto’s is het watermerk van Getty gewoon te zien.

Vertrouwelijkheid en AI

Wie een AI-dienst gebruikt, levert vaak data aan: je levert foto’s aan om beelden te herkennen, teksten aan die afgemaakt moeten worden, of voorbeelden van de stijl waarin de AI moet werken. Deze input wordt vaak opgeslagen voor later gebruik in training. Dit staat vaak in de kleine lettertjes van de AI-diensten. Voor bedrijven is dit een risico omdat hiermee gevoelige informatie openbaar kan worden. Ook hierom is het belangrijk om duidelijke afspraken te maken.

Human in the loop

Tot slot moet men er rekening mee houden dat AI niet perfect is. Alle AI-systemen kunnen fouten maken. De organisatie die AI inzet moet zorgen voor menselijke controle: een zogeheten ‘Human in the Loop’. Vaak is deze controle niet perfect en kunnen er toch fouten doorheen slippen. Dit leidt tot interessante vragen over aansprakelijkheid, waarvan er ongetwijfeld ook enkele bij de SGOA terecht zullen komen. De deskundigen of mediators van de SGOA zullen dan partijen helpen om te bepalen welke verwachtingen men van AI mag hebben, en wat voor controles er door wie gedaan moet worden. Gelukkig zijn er ook nieuwe oplossingen. Bijvoorbeeld zoals LIME en SHAP. Er komen ook praktische tools om besluiten goed te registeren, zoals Deeploy.

Dankzij deze ontwikkelingen blijft het mogelijk om AI te controleren en dus verantwoord in te zetten. Hopelijk blijven hiermee de kansen met AI groter dan de risico’s en levert AI uiteindelijk een bijdrage aan de samenleving.