
Copilot in Microsoft 365 was eigenlijk altijd heel simpel : je had de zekerheid van Microsoft ; we verwerken met Copilot jouw data in de regio of zelfs ‘jouw tenant’ met GPT modellen ; je hebt écht de meest veilige AI oplossing voor jouw data. Veelal als unique selling point om echt voor Copilot te kiezen in plaats van andere AI oplossingen.
Toen Microsoft vorig jaar de modellen van Anthropic ook introduceerde in Copilot werden ze voor Europese tenants niet standaard ingeschakeld, want de modellen van Anthropic draaiden dan in niet Europese omgevingen waar we binnen Europa natuurlijk wel iets van vinden. Dus liet Microsoft de keuze aan de beheerder van de omgeving : het model was er wel maar je moest hem activeren voor jouw organisatie en koos er dus bewust voor dat je die data ging (laten) verwerken buiten de EU.
Met de komst van agents voor Word, Powerpoint en Excel die werkten op de modellen van Anthropic zag je het misschien al fout gaan ; ze werkten alleen als jouw beheerder ook de modellen van Anthropic had ingeschakeld ; anders gaf de agent een foutmelding dat hij niet aan de slag kon.
Zelf had ik sterk het vermoeden dat Microsoft bleef inzetten op Anthtropic modellen en dat die agents dus echt niet ook even naar GPT modellen werden geschakeld als jouw organisatie deze modellen nog niet wilden gebruiken met een goede reden natuurlijk. Mijn idee : daar kies je dan bewust voor.
Maar Microsoft heeft onlangs aangekondigd dat zij vanaf begin mei de knop voor alle omgevingen (ja ook die in Europa) gaan omzetten. Met andere woorden : zij gaan standaard de modellen van Anthropic inschakelen, ook in jouw Europese tenant. Wil je dat niet? Dan moet je het zelf aanpassen, doe je niets, dan krijg je welliswaar het beste LLM wat je nu kunt krijgen in bepaalde Copilot functies en specifieke agents die dan gaan werken, maar dan stem je er ook bij in dat je data in dat geval buiten de EU verwerkt wordt. Ja het is beveiligd en niets wordt opgeslagen zegt Microsoft, maar is dat goed genoeg?
Anthropic is trouwens niet zo maar even een partij waarvan Microsoft zegt ; zet het maar aan. Anthropic draait vanaf nu mee als subprocessor binnen Microsofts eigen beveiligde ecosysteem. Dat betekent: toezicht door Microsoft, stevige contractuele afspraken en de technische en organisatorische maatregelen die je van enterprise‑software mag verwachten.
Gebruik je antropische modellen via Microsofts enterprise‑diensten? Dan vallen ze automatisch onder de Microsoft Productvoorwaarden, het Data Protection Addendum (DPA) én onze Enterprise Data Protection‑standaarden.
Werk je in producten die onder de Microsoft Customer Copyright Commitment (CCC) vallen — zoals Microsoft 365 Copilot of Copilot Studio — dan geldt de CCC ook voor het gebruik van deze modellen. Zo blijft jouw content beschermd, ongeacht welk AI‑model er onder de motorkap draait. Ben je benieuwd wie er ook zo’n partij is voor Microsoft? Hier vind je het lijstje..
Ik ga de keuze voor jouw organisatie niet maken, is ook helemaal niet mijn werk maar weet : de afspraak geldt nog steeds dat de data niet mag worden gebruikt om het model slimmer te maken of om jouw data te mogen gebruiken. Het wordt echter nog wel altijd buiten de EU verwerkt (beveiligd). De keuze is aan jouw organisatie maar, nee ik ga geen advies geven.
