AI bij AI Fabriek — transparantie over ons gebruik van AI
Laatst bijgewerkt: 18/04/2026
AI Fabriek gebruikt AI om content te maken, klanten te helpen en diensten te leveren. Op deze pagina leggen we uit hoe, welke modellen we gebruiken, wat de beperkingen zijn, en hoe we omgaan met de regels rond AI in Europa.
We zijn er expliciet voor om te laten zien wat AI kan. Dat begint met eerlijk zijn over hoe wij het zelf gebruiken. Deze pagina is een leesbare samenvatting. Wil je eerst weten hoe we persoonsgegevens verwerken? Zie ons privacybeleid.
1. Waarom deze pagina bestaat
De Europese AI-verordening (AI Act) is in werking getreden op 1 augustus 2024 en wordt stapsgewijs van toepassing tot 2 augustus 2026. De regels voor aanbieders van general-purpose AI-modellen (GPAI) zijn van toepassing sinds 2 augustus 2025. De AI Act stelt eisen aan transparantie, auteursrecht en veiligheid.
AI Fabriek ontwikkelt zelf geen grote taalmodellen. We zijn een deployer en — soms — een downstream provider van AI-systemen die gebouwd zijn op modellen van derden. Dat betekent dat we niet onder alle GPAI-verplichtingen vallen, maar wél onder de transparantieregels voor AI-systemen (artikel 50 van de AI Act) die vanaf augustus 2026 volledig van toepassing zijn.
We kiezen er bewust voor om nu al transparant te zijn, ook al zijn sommige regels nog niet afdwingbaar. Dat past bij wie we willen zijn.
2. Onze rol onder de AI Act
Onder de AI Act zijn er meerdere rollen. Dit is waar wij staan:
- Deployer (gebruiker) — we zetten AI-systemen in om onze eigen diensten te leveren (content, webchat, automatisering). Dit is onze voornaamste rol.
- Downstream provider — in bepaalde gevallen bouwen we AI-agents voor klanten (bijv. in het kader van ons CRM-aanbod). Wanneer we een AI-systeem op de markt brengen, nemen we de verantwoordelijkheden op die daarbij horen.
- Geen GPAI-aanbieder — we trainen zelf geen grote taalmodellen. We gebruiken modellen van derden (Anthropic, OpenAI, Google, Meta, Mistral en anderen via OpenRouter).
3. Waar AI Fabriek AI gebruikt
Concreet gebruiken we AI in de volgende contexten:
3.1 Content-creatie
Onze artikelen, nieuwsbrieven en social media posts worden voor een groot deel gegenereerd met AI-assistentie. Elke publicatie wordt nagekeken door een redacteur (mens of AI-agent onder menselijk toezicht) voordat ze live gaat. We publiceren geen onjuiste feiten bewust. Waar we twijfel hebben, voegen we bronvermelding of voorbehoud toe.
3.2 Webchat
Onze webchat wordt aangedreven door een AI-agent gekoppeld aan een kennisbank. Je weet altijd dat je met een AI-systeem praat — de chat zegt dat zelf. Wil je een mens spreken? Vraag het in de chat of stuur een mail. We schakelen door.
3.3 E-mail en CRM
E-mails naar onze subscribers worden gepland, gepersonaliseerd en soms volledig opgesteld door AI-agents. Verkoops- en ondersteuningsmails die naar specifieke personen gaan, worden voor verzending door een mens gereviewd wanneer dat zinvol is.
3.4 Interne automatisering
AI-agents helpen ons met research, outreach, scheduling en operationele taken. Deze agents werken binnen duidelijke kaders (doelen, vangrails, budgetlimieten) en nemen geen autonome beslissingen met significante gevolgen zonder menselijk toezicht.
3.5 Diensten voor klanten
Wanneer we voor klanten AI-agents of CRM-automatiseringen bouwen, documenteren we wat het systeem doet, welke modellen het gebruikt, en wat de beperkingen zijn. Klanten krijgen een technische samenvatting die hen toelaat om zelf te voldoen aan hun verplichtingen onder de AI Act.
4. Welke AI-modellen we gebruiken
We werken met meerdere leveranciers en kiezen per taak het model dat het meest geschikt is (kwaliteit, kost, snelheid). De belangrijkste modellen waarmee we op dit moment werken:
- Anthropic (Claude) — voor strategisch denkwerk, redactie en complexe content.
- OpenAI (GPT-familie) — voor content-creatie, code-assistentie en specifieke use cases.
- Google (Gemini) — voor multimodale taken en snelle verwerking.
- Open-source modellen via OpenRouter (zoals Llama, Mistral, Qwen) — voor specifieke automatiseringen waar kostenefficiëntie belangrijk is.
Deze lijst wijzigt wanneer nieuwe modellen beschikbaar komen of wanneer we onze stack aanpassen. Als je op een specifiek moment wil weten welk model een bepaalde interactie aandrijft, mag je dat altijd vragen via privacy@aifabriek.be.
5. AI-training en auteursrecht
Wij trainen zelf geen taalmodellen. We gebruiken bestaande modellen zoals ze door hun leveranciers geleverd worden. Voor auteursrechtvragen betekent dat het volgende:
- We publiceren geen content die we zonder bronvermelding overnemen van derden.
- We geven geen persoonsgegevens of vertrouwelijke klantgegevens door aan AI-modelleveranciers om daarmee modellen te trainen.
- Waar mogelijk kiezen we leveranciers met no-training defaults voor API-gebruik (inputs worden niet gebruikt voor modeltraining). Dit is standaardbeleid bij Anthropic, OpenAI en de andere grote providers waarmee we werken.
- Onze eigen website respecteert standaarden zoals robots.txt en geeft via onze llms.txt aan welke content door AI-systemen gebruikt mag worden voor grounding en citaties.
Ben je auteursrechthouder en heb je een specifieke vraag of klacht over hoe jouw werk mogelijk in onze output verschijnt? Mail naar privacy@aifabriek.be. We nemen elk signaal serieus.
6. Labeling van AI-gegenereerde content
Artikel 50 van de AI Act vereist dat AI-gegenereerde of gemanipuleerde content herkenbaar is, zeker bij deepfakes en bij publieke-belang content. Ons beleid gaat daar actief mee om:
- Blogartikelen en nieuwsbrieven — we vermelden dat onze content met AI-assistentie wordt gemaakt. In de footer van elke publicatie staat een korte AI-disclosure.
- Afbeeldingen — AI-gegenereerde beelden krijgen een zichtbare vermelding (bijv. ‘beeld: AI-gegenereerd’) of een watermerk waar dat redelijkerwijs kan.
- Webchat en AI-agents — deze identificeren zichzelf bij het begin van elke interactie als AI-systeem.
- Geen deepfakes — we creëren geen gemanipuleerde beelden of audio van echte personen zonder hun expliciete toestemming.
7. Wat AI (nog) niet goed kan
We zijn optimistisch over AI maar niet naïef. Dit zijn de beperkingen waar we zelf rekening mee houden en die ook voor jou relevant zijn:
- Feitelijke fouten (hallucinaties) — AI-modellen kunnen overtuigend klinken terwijl ze verkeerd zijn. Onze content wordt daarom altijd nagekeken, maar we zijn niet onfeilbaar.
- Verouderde informatie — modellen hebben een kennis-cut-off. Voor actuele cijfers of regelgeving verwijzen we naar primaire bronnen.
- Bias — AI-modellen weerspiegelen de data waarop ze getraind zijn. We proberen bewust om bias te detecteren en te corrigeren, maar kunnen dit nooit 100% uitsluiten.
- Geen juridisch, medisch of financieel advies — onze content is informatief. Beslissingen met juridische, gezondheids- of financiële gevolgen vereisen een gekwalificeerde professional.
8. Menselijk toezicht en escalatie
Onze AI-agents werken autonoom binnen duidelijk afgebakende vangrails. Er is altijd een menselijk aanspreekpunt:
- De oprichter (Dennis Matthijs) is eindverantwoordelijk en reviewt steekproefsgewijs.
- Escalaties (klachten, technische problemen, gevoelige situaties) gaan altijd door naar een mens.
- Je kan op elk moment vragen om een menselijk contactpunt via privacy@aifabriek.be of dennis@aifabriek.be.
9. Geautomatiseerde besluitvorming
AI Fabriek neemt geen volledig geautomatiseerde beslissingen met significante juridische of vergelijkbaar zwaarwichtige gevolgen voor individuen (zoals krediet- of aanwervingsbeslissingen). Wanneer AI-systemen voorstellen genereren die impact hebben op een persoon of bedrijf (bijv. een gepersonaliseerd aanbod), is er altijd een menselijke validatie voor de beslissing wordt uitgevoerd.
10. Voor klanten: AI-agents die wij voor jou bouwen
Laat je ons een AI-agent bouwen of een CRM automatiseren? Dan leveren we standaard mee:
- Een technisch overzicht van het systeem (welke modellen, welke data, welke workflows).
- Een lijst van beperkingen en bekende risico’s.
- Een transparantie-tekst die je kan hergebruiken voor jouw eindgebruikers.
- Advies over jouw eigen verplichtingen als deployer onder de AI Act.
Zo help je ons jou helpen om in regel te zijn zonder dat je zelf de volledige regelgeving moet uitvlooien.
11. Hoe wij omgaan met wijzigingen in de regelgeving
De AI Act wordt gefaseerd van toepassing tot augustus 2026, met verdere verplichtingen voor hoog-risico systemen tot augustus 2027. We volgen publicaties van het AI Office, de GPAI Code of Practice, en de Guidelines on transparent AI systems (verwacht Q2 2026). Wijzigingen aan ons beleid documenteren we op deze pagina.
12. Vragen, klachten, signalen
Alles welkom. Ook als je vindt dat we iets fout doen:
- Algemeen: privacy@aifabriek.be
- AI-specifieke vragen: ai@aifabriek.be (of gebruik het algemene adres)
Voor formele klachten over de verwerking van persoonsgegevens kan je ook terecht bij de Belgische Gegevensbeschermingsautoriteit (gegevensbeschermingsautoriteit.be). Voor klachten specifiek over AI-systemen verwijst de Belgische overheid naar de bevoegde toezichthouder — deze aanwijzing is in volle ontwikkeling op het moment van schrijven.