Een verrassende aankondiging van Microsoft: Copilot is voortaan beschikbaar voor elk bedrijf, ongeacht de omvang. Daardoor neemt de adoptie van AI een nog grotere vlucht in het kantoorautomatiseringslandschap. Deze digitale assistent maakt je leven een stuk eenvoudiger, maar heeft tegelijkertijd grote gevolgen voor beveiliging van je data. In deze blog lees je daarom niet alleen over de onmiskenbare voordelen, maar ook over de risico’s.
Microsoft 365 Copilot gebruikt Large Language Models, zoals je die kent van bijvoorbeeld ChatGPT. Die worden gecombineerd met jouw eigen data. Denk aan gegevens die afkomstig zijn uit applicaties zoals Word, Excel, PowerPoint, Teams en Outlook. De combinatie levert een bijzonder krachtige tool op, die productiviteit, efficiëntie en creativiteit kan verhogen.
Wat kun je er zoal mee? Stel, je hebt geen tijd om een uitgebreide e-mailwisseling in Outlook te lezen. Als je Copilot om een samenvatting vraagt, krijg je die in een oogwenk. Ook kun je de assistent vragen om een antwoordmail te schrijven met de door jou gewenste tone-of-voice.
In Teams kun je Copilot vragen om een samenvatting van de meeting te schrijven en de belangrijkste actiepunten op een rij te zetten.
In Word kun je vragen om een artikel te schrijven over elk gewenst onderwerp. Ook kun je teksten genereren en afbeeldingen toevoegen. Met een druk op de knop zet je ze om in dia’s voor een aansprekende presentatie. Copilot kan je zelfs helpen met het schrijven van code, waardoor je sneller software ontwikkelt.
Als je weleens met ChatGPT hebt gewerkt, zal je zijn opgevallen dat de inhoud niet altijd correct is. Daarnaast erkent Microsoft dat Copilots uitkomsten niet bijster origineel zijn: “Iedereen die Copilot instrueert om een ‘recept voor appeltaart’ te maken, krijgt waarschijnlijk identieke of bijna identieke inhoud.”
Dit laatste wordt deels ondervangen door de combinatie met je eigen data, want daardoor worden antwoorden specifieker. Maar nu je sneller en breder in alle bedrijfsdata kunt zoeken, doemt een nieuw risico op, zeker gezien deze informatie ook breed wordt getoond. Hoe voorkom je dat gevoelige data op straat of bij de verkeerde persoon binnen de organisatie komt te liggen?
Microsoft biedt een aantal ingebouwde security-maatregelen. Daarnaast belooft de fabrikant zorgvuldig met AI om te gaan. Daarmee wordt bedoeld dat alles in het werk wordt gesteld om te voorkomen dat gegenereerde content bijvoorbeeld passages bevat die hatelijk zijn of discriminerend. Maar omdat je uiteindelijk zelf verantwoordelijk bent voor de inhoud die je verspreidt, is een kritische blik op het bestaande informatiebeveiligingsbeleid essentieel. Hierbij hoort ook dat je ervoor zorgt dat de rollen- en rechtenstructuur op orde is én dat je voldoet aan wet- en regelgeving.
Als Avit denken we graag met je mee. We kunnen bijvoorbeeld de bestaande inrichting voor je in kaart brengen. Aan de hand van deze inventarisatie, kunnen we advies uitbrengen over hoe je de risico’s van Copilot beperkt. Desgevraagd kunnen we ook de bijbehorende maatregelen voor je doorvoeren, zodat jij zorgeloos van de innovatiemogelijkheden kunt profiteren.
Wil je meer weten over hoe we jou kunnen helpen? Neem dan contact op met onze expert Marten Mooi.