AI en fraude in België: wat zegt het strafrecht?
Blog
3 februari 2026
AI en criminaliteit worden een steeds grotere realiteit in België. Criminelen gebruiken artificiële intelligentie voor geavanceerde fraude.
Hoe pakt onze wetgeving AI en criminaliteit aan?
Vooraleer in te gaan op de bestaande wetgeving en de voorkomende AI criminaliteit, wordt er uiteengezet wat er dient begrepen te worden onder artificiële intelligentie.
Wat is artificiële intelligentie?
Artificiële intelligentie wordt in de Europese AI act van 13 juni 2024 gedefinieerd als: “Een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen.”
Concreet betekent dit dat AI een informaticasysteem is dat gegevens verwerkt, dat ‘intelligent’ en op autonome wijze keuzes kan maken om doelen te bereiken.
AI criminaliteit: nieuwe realiteit in België
Het toenemende gebruik van kunstmatige intelligentie (AI) in het dagelijks leven brengt helaas ook nieuwe criminele mogelijkheden met zich mee. AI wordt steeds vaker ingezet als instrument voor het plegen van misdrijven, wat nieuwe uitdagingen creëert voor het strafrecht en de rechtshandhaving.
Criminelen misbruiken AI-technologie
De integratie van AI in de cybercriminaliteit heeft de digitale dreiging naar een ongekend niveau getild. Waar traditionele cybercriminaliteit vaak beperkt was tot technische vaardigheden van individuele hackers, stelt AI nu geavanceerde aanvalsmethoden beschikbaar voor een veel bredere groep criminelen.
Generatieve AI zoals ChatGPT wordt gebruikt voor phishing-e-mails zonder spel- of taalfouten. Deepfakes maken CEO-fraude en voice cloning toegankelijker, terwijl tools als FraudGPT op het darkweb circuleren.
Deze automatisering verlaagt de technische drempel voor daders en verhoogt de schaal van AI criminaliteit in België aanzienlijk.
Kan AI zelf een misdrijf plegen?
Deze vraag wordt steeds relevanter naarmate AI autonomer wordt.
Autonome systemen handelen soms op een wijze die niet volledig te herleiden is tot menselijke controle. Hierdoor komen klassieke strafrechtelijke beginselen zoals schuld, opzet en causaliteit onder druk te staan.
Hoewel AI autonomer wordt, kunnen AI-systemen niet strafrechtelijk vervolgd worden. Het Belgische strafrecht houdt vast aan het principe dat alleen personen met vrije wil verantwoordelijk zijn.
De verantwoordelijkheid ligt bij ontwikkelaars en gebruikers.
Belgische strafrecht pakt AI-misdrijven aan
Het Belgische strafrecht toont zich verrassend veerkrachtig.
Het misbruik van AI als instrument van het misdrijf kan voorkomen in het kader van oplichting (art. 496 oud Sw., art. 479 nieuw Sw.) of informaticafraude (art. 504quater oud Sw., art. 488 nieuw Sw.). Deze misdrijven worden als volgt gestraft:
- Oplichting: gevangenisstraf van 1 maand tot 5 jaar en met geldboete van 26 euro tot 3.000 euro
- Informaticafraude: gevangenisstraf van 6 maanden tot 5 jaar en met geldboete van 26 euro tot 100.000 euro of met een van die straffen alleen
Daarnaast kan AI een rol spelen in de informaticamisdrijven, zoals valsheid in informatica (art. 210bis oud Sw., art. 451 nieuw Sw.) en informaticasabotage (art. 550ter oud Sw., art. 531 nieuw Sw.). De misdrijven worden bestraft met:
- Valsheid in informatica: een gevangenisstraf van 6 maanden tot 5 jaar en met geldboete van 26 euro tot 100.000 euro of met een van die straffen alleen.
- Informaticasabotage: gevangenisstraf van 6 maanden tot 3 jaar en met geldboete van 26 euro tot 25.000 euro of met één van die straffen alleen en als het misdrijf gepleegd werd met bedrieglijk opzet of met het oogmerk om te schade wordt de maximale gevangenisstraf verhoogd naar 5 jaar.
In principe kunnen AI-systemen die gebruikt werden als instrument bij het plegen van een misdrijf verbeurdverklaard worden onder artikel 42, 1° oud Sw., art. 53, §2, 2° nieuw Sw. Dit brengt in de praktijk uitdagingen met zich mee door de complexe en immateriële aard van AI-systemen.
De grootste moeilijkheid ligt in de bewustwording en preventie. AI is geen magische oplossing, maar brengt reële risico’s met zich mee die voortdurende monitoring vereisen.
Problemen zoals anonieme daders, internationale aspecten en snelle doorschuiving van gelden maken effectieve bestrijding moeilijk. AI zal het strafrecht en de aanpak van fraude blijvend veranderen.
Hoe u wordt geholpen: onze juridische bijstand
Als strafrechtadvocaten bieden we concrete hulp bij AI-criminaliteit:
- U krijgt helder advies over de juiste juridische stappen en of een aangifte bij de politie aangewezen is.
- U kan rekenen op ondersteuning door gespecialiseerde cyber-experts die samen met de advocaat uw dossier technisch en juridisch onderbouwen.
- U wordt begeleid bij een burgerlijke partijstelling bij de onderzoeksrechter.
- U ontvangt praktische ondersteuning bij het correct melden van incidenten aan de bevoegde autoriteiten.
- U krijgt duidelijk inzicht in mogelijke aansprakelijkheden en de daaraan gekoppelde schadevergoeding.
Heeft uw organisatie vragen over AI-compliance of cybersecurity? Onze specialisten staan klaar om u te begeleiden in dit complexe juridische landschap.
Geconfronteerd met AI-fraude?
Ons team strafrecht helpt u meteen op weg met gericht juridisch advies.
Lees hier meer over onze aanpak bij informaticamisdrijven en cybercrime:
Strafrecht – informaticamisdrijven