AI is geen aparte wereld, het hoort gewoon bij het werk dat wij verzekeren
Door Yasin Chalabi - Director Sales & Underwriting bij Hiscox
AI is geen aparte wereld, het hoort gewoon bij het werk dat wij verzekeren
Er hangt veel spanning rond het onderwerp AI. Terwijl het in de praktijk heel simpel is. Wij verzekeren een specifiek deel van de technologiesector, met producten die precies aansluiten op wat IT-bedrijven dagelijks doen. En AI hoort daar inmiddels gewoon bij. Of dat nu gaat om tools, chats, berekeningen of analyses die hun werk verbeteren, versnellen of optimaliseren: het is onderdeel van hun activiteiten. Dus nemen wij het mee. We sluiten AI-gebruik niet uit. En dat betekent automatisch dat het binnen de dekking valt.
Voor ons begint dat bij contractbreuk. Die dekking staat gewoon zwart-op-wit in onze polis. Contractbreuk betekent dat een klant een tekortkoming heeft in het nakomen van een overeenkomst. Als er iets wordt nagelaten, verkeerd of onzorgvuldig wordt uitgevoerd en AI speelt daarbij een rol, dan blijft dat simpelweg onderdeel van de werkzaamheden van de klant. En als die tekortkoming binnen de contractuele sfeer valt, dan is dat gedekt. We gaan dus niet zeggen: “Dat valt erbuiten omdat het door AI komt.” We sluiten het niet uit, dus we dekken het mee.
Ik weet dat sommige verzekeraars heel strak werken met het begrip “fout”. Daar gaat het dan echt om schade die aantoonbaar voortkomt uit een fout. Maar dan begint het gedoe. Want waar is die fout precies gemaakt? Hoe bewijs je dat? Bij IT-werkzaamheden is het al lastig om aan te tonen welk onderdeel precies onzorgvuldig was. En als AI een rol speelt, wordt dat nóg ingewikkelder. Dan moet je als klant kunnen zeggen: dat stukje, die output, dát was de fout en het lag aan AI. Dat is bijna niet te doen. En de verzekeraar baseert de dekking dan op die trigger: fout. Bewijs die fout maar eens. Je ziet meteen hoe ingewikkeld dat wordt.
Bij ons werkt het veel praktischer. Contractbreuk staat als geheel in de dekking. Daardoor hoeven we niet te weten waar de fout zit of wie die fout veroorzaakt heeft. Als er een tekortkoming is binnen het contract, dan valt die binnen de dekking. Voor adviseurs geeft dat helderheid en voor klanten scheelt het enorm veel bewijsdruk.
Natuurlijk zijn er ook andere risico’s die samenhangen met AI. Inbreuken op intellectuele eigendommen bijvoorbeeld. Je kunt AI gebruiken zonder te weten dat er een licentie op bepaalde onderdelen zit. Misschien is iets niet open source, misschien zit er een patent op. Dan kun je aansprakelijk worden gesteld voor een IE-inbreuk zonder dat je dat bewust hebt gedaan. Dat soort dingen kun je niet altijd controleren, maar ze spelen wel degelijk in de praktijk. En ook dat nemen we mee in onze beoordeling.
Daarnaast zie ik dat AI soms privacy- of reputatierisico’s kan veroorzaken. AI kan informatie verkeerd weergeven, verkeerde bronnen gebruiken of conclusies trekken die later niet blijken te kloppen. Als een bedrijf die informatie overneemt in een advies of uiting en iemand raakt daardoor beschadigd, dan kun je te maken krijgen met claims op basis van privacy-inbreuk, smaad of laster. Niet omdat iemand kwade bedoelingen had, maar omdat de gebruikte input niet klopte. Dat zijn reële situaties binnen het IT-werkveld.
De kern van mijn verhaal blijft hetzelfde: AI is geen aparte risicosoort voor ons. Het is geen eilandje dat losstaat van het werk van techbedrijven. Het is een onderdeel van hun dagelijkse activiteiten. En zolang wij contractbreuk dekken - en AI een rol speelt binnen die werkzaamheden - valt het binnen dezelfde dekking. Contractbreuk gaat veel verder dan alleen maar “fouten” of nalatigheid. Het geeft ruimte om de realiteit van moderne IT-dienstverlening mee te verzekeren.