AI Safety
Wat is AI Safety?
AI Safety is het vakgebied dat zich bezighoudt met het waarborgen dat AI-systemen veilig, betrouwbaar en in lijn met menselijke waarden functioneren — zowel nu als in de toekomst. Het omvat zowel technisch onderzoek (hoe bouw je AI die doet wat je bedoelt?) als beleidsvragen (hoe reguleer je steeds krachtigere AI?).
Wie werkt hieraan?
Anthropic werd specifiek opgericht met AI Safety als kernmissie — het is de reden van bestaan, niet een bijzaak. OpenAI heeft een safety team maar is bekritiseerd voor het onderordenen van veiligheid aan productontwikkeling. Onafhankelijke instituten zoals het Center for AI Safety werken exclusief aan dit vraagstuk. De EU AI Act is al van kracht. De VS en het VK ontwikkelen vergelijkbare regelgeving.
Waarom relevant?
Als Claude weigert iets te doen, is dat een Safety-beleidsbeslissing van Anthropic — nu begrijp je waarom. De EU AI Act legt verplichtingen op aan bedrijven die AI inzetten voor klantgerichte toepassingen — juridische compliance begint hier. En klanten beginnen te vragen hoe bedrijven AI inzetten. Een doordacht AI-beleid gebaseerd op Safety-principes kan een onderscheidende factor zijn.