AI: belangrijkste vraagstuk binnen digitale soevereiniteit en private cloud
In het eerste deel van deze blogreeks bespraken we hoe digitale soevereiniteit zich ontwikkelt van een technisch randthema naar een strategisch boardroom vraagstuk. De infrastructuurkeuzes van organisaties, zoals private cloud, hybride modellen en datalocatie, vormen het fundament voor die soevereiniteit. Maar het is de inzet van AI die het vraagstuk van controle en autonomie daadwerkelijk urgent maakt.
De onderzoeksresultaten (die wij in zijn volledigheid in Februari zullen publiceren), laten zien dat organisaties in 2026 balanceren tussen twee krachten. Aan de ene kant staat de belofte van AI-innovatie, aan de andere kant de noodzaak om grip te houden op data, veiligheid en compliance. In deze tweede blog analyseren we hoe organisaties met AI omgaan, welke zorgen domineren en hoe dit de verschuiving naar soevereine AI-oplossingen versnelt.
AI-gebruik: versnipperd, ad hoc en zonder beleid
Veel organisaties zitten nog in een overgangsfase als het gaat om AI. In ons onderzoek geeft 62% aan dat AI binnen de eigen organisatie nog te weinig wordt benut en dat een inhaalslag nodig is. Tegelijkertijd gebruiken medewerkers AI-tools vaak op eigen initiatief: 56% gebruikt AI zonder duidelijke richtlijnen of ondersteuning vanuit de organisatie.
Dit betekent dat AI-adoptie binnen veel organisaties vooral bottom-up plaatsvindt. Individuen experimenteren met generatieve AI-tools, terwijl governance, beleid en infrastructuur achterblijven. Ongeveer de helft (52%) van de organisaties heeft nog geen formeel beleid opgesteld voor het gebruik van AI door medewerkers.
Deze ad-hoc adoptie brengt risico’s met zich mee. Zonder centrale sturing kunnen gevoelige data onbedoeld in publieke AI-modellen terechtkomen. Dit levert niet alleen privacy- en compliancerisico’s op, maar vergroot ook het risico op datalekken of verlies van intellectueel eigendom. Een reden temeer om dit vraagstuk GDPR-compliant aan te pakken.
De grootste zorgen: dataveiligheid, bias en gebrek aan controle
De cijfers laten zien dat zorgen over AI breed leven binnen organisaties, met name op het gebied van veiligheid en controle. De belangrijkste zorgen die worden genoemd zijn:
- Risico op datalekken of onvoldoende dataveiligheid, veruit de meest genoemde zorg (83% ziet dit als kleine of grote zorg)
- Risico op onbedoelde vooroordelen of fouten in AI-uitkomsten (bias), wat de behoefte aan transparantie en controle over modeltraining onderstreept (79% ziet dit als zorg)
- Gebrek aan controle over waar data worden opgeslagen en verwerkt, direct verbonden met het soevereiniteitsvraagstuk uit blog 1 (77% ziet dit als zorg)
Daarnaast speelt onzekerheid over wet- en regelgeving een rol (79% ziet dit als zorg), waarbij de EU AI Act dit vraagstuk verder aanscherpt.
Deze zorgen maken duidelijk dat AI voor veel organisaties niet alleen een innovatievraagstuk is, maar vooral een governance- en veiligheidsvraagstuk.
Privacy en veiligheid wegen zwaarder dan snelheid
Een opvallende uitkomst uit de onderzoeksresultaten is dat veiligheids- en privacyrisico’s doorslaggevend zijn in de AI-keuzes van organisaties: 75% geeft aan dat deze risico’s cruciaal zijn bij hun AI-beslissingen. Veel organisaties geven aan dat zij eerst volledige grip willen hebben op datagebruik en infrastructuur, voordat AI verder wordt opgeschaald (39%). Slechts 21% kiest ervoor om zo snel mogelijk te profiteren van innovatie, zelfs als dat ten koste gaat van controle over data en infrastructuur.
Dit bevestigt een fundamentele verschuiving in hoe organisaties naar AI kijken. AI is niet langer primair een middel om sneller te zijn dan concurrenten, maar moet worden ingebed binnen bestaande kaders van compliance, beveiliging en datasoevereiniteit. Voor organisaties in sectoren zoals zorg en overheid is dit geen luxe, maar een noodzakelijke voorwaarde.
Het bewustzijn van publieke versus private AI groeit
Een belangrijk keerpunt is dat organisaties zich steeds meer bewust worden van het verschil tussen publieke en private AI-oplossingen. Publieke AI-tools zijn krachtig en toegankelijk, maar werken met gedeelde infrastructuren en externe datacenters. Daarbij bestaat het risico dat bedrijfsinformatie of vertrouwelijke data buiten de eigen gecontroleerde omgeving terechtkomen.
Private AI draait daarentegen binnen een afgeschermde en gecontroleerde omgeving en biedt organisaties volledige controle over waar data staat, hoe deze wordt verwerkt en wie er toegang toe heeft. De onderzoeksresultaten laten zien dat 69% van de organisaties zich bewust is van de verschillen tussen private en publieke AI-oplossingen en dat 66% bewust kiest voor AI-oplossingen in een private of gecontroleerde omgeving.
Tegelijkertijd blijft er een uitdaging. Binnen veel organisaties ontbreekt duidelijkheid over hoe data worden verwerkt en of deze worden gebruikt voor het trainen van AI-modellen. Dit gebrek aan transparantie maakt het lastig om weloverwogen keuzes te maken tussen publieke en private AI.
AI-wetgeving: versnipperde voorbereidingen
De EU AI Act, die sinds 2024 van kracht is en richting 2026 verdere uitrol kent, stelt nieuwe eisen aan organisaties die AI gebruiken. De onderzoeksresultaten laten zien dat organisaties zich in verschillende stadia van voorbereiding bevinden:
Ongeveer 24-29% heeft al stappen gezet, zoals het aanpassen van IT- of databeleid met specifieke AI-richtlijnen, het onderzoeken of wetgeving van toepassing is, en het uitvoeren van audits van bestaande AI-systemen op risico’s of bias. Een aanzienlijk groter deel (38-46%) is op dit moment bezig met deze voorbereidingen of wil deze voor het einde van 2026 implementeren. Een substantieel deel (25-35%) heeft nog geen concrete plannen.
Dit laat zien dat AI-governance bij veel organisaties nog in ontwikkeling is, terwijl de regelgeving juist strenger wordt. Organisaties die nu geen actie ondernemen, lopen het risico straks non-compliant te zijn en boetes of reputatieschade op te lopen. NIS2 en de Data Act verscherpen deze verplichting verder.
Van publieke hype naar private waarde
De verschuiving van publieke naar private AI is geen trend, maar een logisch gevolg van de eisen die organisaties stellen aan controle, veiligheid en compliance. Private AI biedt dezelfde functionaliteit als publieke AI-tools, maar met volledige controle, geïntegreerd in de bestaande IT-omgeving en in lijn met Nederlandse en Europese wet- en regelgeving zoals GDPR, NIS2 en de AI Act.
Voor organisaties die werken met vertrouwelijke of gereguleerde data, zoals ziekenhuizen, gemeenten, financiële instellingen en IT-dienstverleners, is private AI niet langer een nice-to-have, maar een strategische noodzaak. Het stelt organisaties in staat om AI-innovatie te realiseren zonder concessies te doen aan datasoevereiniteit.
Bij Uniserver zien we dit terug in oplossingen als Fuse AI, die private AI-capaciteiten binnen je eigen soevereine infrastructuur aanbiedt.
Vooruitblik: AI als onderdeel van de soevereiniteitsstrategie
De onderzoeksresultaten maken duidelijk dat de infrastructuurkeuzes van vandaag direct bepalen of AI morgen veilig, compliant en soeverein kan worden ingezet. Organisaties die nu kiezen voor soevereine cloudoplossingen en private AI-modellen leggen het fundament voor duurzame innovatie binnen duidelijke kaders van veiligheid en wetgeving.
In de volgende blog in deze reeks verschuift de focus naar de rol van Europese wetgeving en geopolitiek. Daarbij staat centraal hoe regelgeving zoals de AI Act, NIS2 en de Data Act organisaties dwingt om hun AI- en datastrategie fundamenteel te heroverwegen en waarom digitale autonomie steeds meer de norm wordt.

