Azure function apps in combinatie met AFAS Profit

Als je wil proberen om zo min mogelijk eigen infrastructuur te gebruiken zonder dat dat meteen veel geld moet kosten zijn er talloze opties te bedenken. Een van die opties is Microsoft Azure. De eerste stap die je zal moeten zetten is gaan denken in de daadwerkelijke handelingen die er uitgevoerd moeten worden. Deze handelingen wil je vervolgens in logische blokken opdelen, met als voorwaarde dat deze blokken moeten onafhankelijk van elkaar kunnen functioneren. Vervolgens kan je per blok gaan kijken wat de beste manier is om de gewenste functionaliteit te realiseren.

Het “Probleem”

In dit voorbeeld gaan we voor nieuwe medewerkers in AFAS Profit een aantal velden vullen. Omwille van de eenvoud van het voorbeeld heb ik het gebruikte script even eenvoudig gehouden. Gezien het in Profit niet mogelijk is om logica toe te passen bij het automatisch vullen van velden hebben we een externe oplossing nodig om dit te doen. Het heeft mijn voorkeur om dit soort zaken met Powershell en de connectoren in Profit op te lossen. Voorheen gebruikte ik hiervoor altijd een van onze applicatieservers voor (om het script te draaien). We kunnen dit echter ook prima in Azure oplossen

De oplossing (Microsoft Azure)

Als je in Microsoft Azure scripts wil laten draaien die gebruik kunnen maken van web connectiviteit zijn de “Function Apps” een goede optie. Binnen dit systeem heb je bijvoorbeeld ook Web Proxies beschikbaar en die gaan we in een latere post gebruiken :). We gaan dus een Function App aanmaken waarbinnen we één of meerdere scripts op een tijdschema laten draaien. In dit voorbeeld gaan we een lijst ophalen van medewerkers die nog geen licenties toegekend gekregen hebben. Deze lijst met medewerkers krijgt vervolgens de juiste licenties toegekend op hun medewerkerkaart. Voor deze stappen heb je een actieve Azure Subscription nodig (je moet dus of in de trial zitten of een betaalmethode gekoppeld hebben). De kosten van het draaien van dit script (15 uur per dag) zijn 6 eurocent per maand (afhankelijk van de gebruikte opslag / data). Ik zou Azure altijd instellen op de Engelse taal gezien de vertalingen naar het Nederlands erg verwarrend kunnen zijn. Daarnaast zijn niet alle vertalingen correct.

Stappenplan (functie)

We starten op de Azure portal en kiezen daar voor het aanmaken van een nieuwe resource:
Azure portal "Create Resource"
In het volgende venster zoek je naar “Function app”:
Azure function app aanmaken
Je krijgt een nieuw menu te zien waar je een aantal instellingen in kan geven. De “App name” is voor dit stappenplan niet zo van belang. Mocht je later de Proxy functionaliteit wil gaan gebruiken wordt dit de URL waarop je de proxy kan benaderen. In ons geval moeten we een nieuwe resoursegroup aanmaken waar alle elementen voor deze functionaliteit gebundeld worden. als locatie kiezen we voor West Europe gezien die geografisch het dichtste bij onze AFAS Profit omgeving zal staan. De naam van de storagegroup is niet heel belangrijk in dit geval, als je het maar eenvoudig terug kan vinden. Uiteindelijk heb je dan grofweg het onderstaande. Als je nu op “Create” klikt wordt de Function App aangemaakt, dit kan ongeveer een minuut duren.
Na een minuutje wachten kan je de Function App openen en krijg je een overzicht zoals dit te zien:
Function app overzicht.
We kunnen nu daadwerkelijk de functie aan gaan maken die het script gaat draaien. We klikken hiervoor bij “Funtions” op het plusje om de wizzard te openen. Er zijn een groot aantal standaard functies beschikbaar, maar in ons geval willen we een custom function bouwen:
In het volgende venster zal je de beta talen aan moeten zetten. Powershell is nu nog in beta (al tijden), maar werkt prima. Om deze mogelijkheid te krijgen moet je deze switch even omzetten:
Vervolgens kan je de “Time Trigger” optie kiezen:
Azure function Time Trigger
In het volgende venster zal je de taal moeten kiezen (in ons geval PowerShell) en het schema moeten definiëren. Dit schema maakt gebruik van dezelfde notatie als CRON en is niet heel erg gemakkelijk leesbaar als je er niet veel mee werkt. Je kan hiervoor eventueel een generator gebruiken. In het voorbeeld hier onder draaien we het script ieder uur vanaf 7.00 in de ochtend tot 20.00 in de avond. (let wel op dat je je tijdzone goed ingesteld hebt).
Na het aanmaken van de functie krijg je een leeg venster te zien waar het script geplaatst kan worden. Je kan dit allemaal integreren met bijvoorbeeld Github (of andere repositories), maar dat gaat voor dit voorbeeld even te ver.

Het script

De laatste stap is het toevoegen van het script zelf. Ik ga niet al te veel in op de werking van het script, maar kort samengevat gebeurt er het volgende:
  • Roep een getconnector aan die een gefilterde lijst met gebruikers zonder licenties ophaalt.
  • Loop door deze lijst en voer de gewenste licentiecodes in bij de diverse users.
Om het voorbeeld een beetje overzichtelijk te houden staat hier onder een versimpelde versie van ons script. We gebruiken zelf een complexer script met een aantal randvoorwaarden om te bepalen welke licentie nodig is voor welke gebruiker.
begin {

    # define the access token for the AFAS service
    $token = '<token><version>1</version><data>***</data></token>'
    $encodedToken = [System.Convert]::ToBase64String([System.Text.Encoding]::ASCII.GetBytes($token))
    $authValue = "AfasToken $encodedToken"
    $Headers = @{
        Authorization = $authValue
    }

    # Connect and retrieve the table
    $url = 'https://**/profitrestservices/connectors/***?skip=-1&take=-1'
    $records = ((Invoke-WebRequest -Uri $url -UseBasicParsing -Headers $Headers).content  | ConvertFrom-Json).Rows
}

process {
    # Specify update authorization
    $token = '<token><version>1</version><data>***</data></token>'
    $encodedToken = [System.Convert]::ToBase64String([System.Text.Encoding]::ASCII.GetBytes($token))
    $authValue = "AfasToken $encodedToken"
    $Headers = @{
        Authorization = $authValue
    }
    $connectorname = "KnEmployee"
    
    # Process records 
    foreach ($record in $records) {
        $url = "https://***/profitrestservices/connectors/KnEmployee"

        Write-Host $record.profituser
        $medewerker = $record.profituser

        $messagecontent = '{"AfasEmployee": {"Element": {"@EmId": "' + $medewerker + '", "Fields": { "***": "02", "***": "01"}}}}'

        $results = ((Invoke-WebRequest -Uri $url -UseBasicParsing -ContentType 'application/json;charset=utf-8' -Method PUT -Headers $Headers -Body $messagecontent).content | ConvertFrom-Json)
        Write-Host $results
    }
}
Na het invoeren van het script kan je op “save en run” klikken en daarna zal het script volgens het voorgestelde schema draaien. Je kan eventuele fouten opsporen door de logging na te kijken, deze is voor de losse run direct onder in het scherm beschikbaar:
En later via het monitor menu:

Tot slot

Dit is natuurlijk maar een eenvoudig voorbeeld, maar je kan je voorstellen dat je op deze manier veel zaken kan automatiseren zonder dat je hier eigen infrastructuur voor nodig hebt. Het script wat ik gebruikt heb in dit voorbeeld is gemaakt samen met Jaap de Koning, lees ook eens zijn blog als je geïnteresseerd bent in automatisering. Laat even een berichtje achter als je meer wil weten over deze manier van automatiseren rondom AFAS Profit of het gebruik van Azure functions. De komende tijd zal ik meer in gaan op deze aanpak. Daarbij kijken we naar de veranderingen die nodig zijn in de manier van denken om goed gebruik te maken van cloud en hybride oplossingen.

Detron Open Script Night – Ronde 1

Als een van de Business Developers bij Detron IT Consultants mag ik samen met het als team altijd zoeken naar methoden om onze collega’s kennis te laten maken met nieuwe systemen en technieken. Maar soms moet je ook de aanpak van deze kennisdeling eens op de schop gooien om zo een andere groep mensen te bereiken of een hoger niveau te behalen. Zeker op het gebied van het schrijven van een script ten behoeve van automatisering zien we het niveau flink stijgen en moeten we de aanpak dus veranderen.

Zo gaan we na 2 jaar aan PowerShell bootcamps eens proberen om op een hele andere wijzen kennis te delen over niet alleen PowerShell, maar ook andere scripttalen waar we in onze dagelijkse werkzaamheden mee in aanraking komen. Het resultaat van wat berichten heen en weer tussen collega’s was dat we vanuit het Detron ICT Kenniscafé (communicatie middel en organisatie van een deel van onze kennissessies en trainingen en mijn hobby op het werk 😉 ) ook wel een Open Script Night konden houden. Hier kunnen collega’s of externe sprekers in 10-20 minuten een demo en toelichting geven van iets wat ze zelf gemaakt hebben en misschien handig is voor collega’s.

Als we deze korte sessies combineren met een introductie van een nieuwe of bestaande techniek die voor iedereen interessant kan zijn hopen we een leuke actieve avond te hebben. Het is niet de bedoeling dat bezoekers alleen maar gaan zitten luisteren, maar ook direct met de laptop aan de slag kunnen om ervaring op te doen met wat ze horen en zien.

Ondanks dat ik met al 6 jaar bezig houd met het organiseren van trainingen en sessies heb ik anders dan het welkomstwoord nog nooit zelf inhoudelijk gesproken op een sessie, gezien een van mijn hobby’s nogal wat met scripting te maken heeft (clickfarm.nluitleg) was dit een mooie gelegenheid om hier ook een keer verandering in te brengen. Tijdens de eerste Detron Open Script Night zal ik 30 minuten spreken over twee tools die mij enorm helpen en een stukje techniek waar ik dagelijks mee in aanraking kom. Een van de andere onderwerpen  waar we deze eerste avond naar gaan kijken is git, wat mij betreft ook een onmisbaar stuk gereedschap voor het onderhouden van je scripts.

Onderwerp 1: Visual Studio Code (script editor)

Visual Studio Code een erg mooi stukje gratis software van Microsoft voor het schrijven van je code. Voor de meeste talen is er een intellisense module beschikbaar. Daarnaast zorg de Emmet.io integratie voor een aanzienlijke versnelling van het schreven van de code. Ook een directe integratie met git draagt bij aan een goede workflow. Visual Studio Code - Script editor

Onderwerp 2: Postman

Eigenlijk al een stukje voorbereiding op het derde onderwerp, maar Postman is een tool voor het testen van allerlei web connectoren (om het maar eens heel simpel uit te leggen). De eerste keer dat ik er mee in aanraking kwam was voor het testen van de backend voor Clickfarm, maar inmiddels gebruik ik de tool ook zakelijk.

Postman API Test suite

Onderwerp 3: Web-connectoren (API’s)

Wanneer je meerdere (SaaS) systemen aan elkaar wil koppelen ontkom je niet meer aan allerlei verschillende API’s. Nou zijn er aardig wat standaarden, maar in hoofdlijnen werken ze technisch veelal hetzelfde. Reden genoeg om eens beter te kijken wat nu de kracht kan zijn van een goede API, maar ook wat de uitdaging kan zijn als je meerdere passieve systemen wil koppelen.

api grafische weergave

 

Microsoft Power BI Gateway (Deel 2)

In de vorige post hebben we gekeken naar hoe we data uit Profit via de webconnectoren naar JSON files kunnen halen. Om deze files ook beschikbaar te maken in de cloud voor Power Bi kunnen we het beste gebruik maken van de Power Bi gateway. Hier onder vind je een instructie van hoe deze te installeren en configureren. De instructie is op basis van de documentatie van Microsoft die je hier vind.

Stap 1: Download Enterprise Gateway

Om de Gateway te kunnen downloaden moet je inloggen op Office.com en dan doorklikken naar de PowerBI omgeving.

Office 365 Power BIRechts bovenaan heb je een “download” knop, kies daar voor “Data Gateway”

Power BI Gateway

Je wordt vervolgens doorverwezen naar de download pagina, klik daar op de “Download Gateway” optie.

Download Power BI gateway

Stap 2: Installeer Enterprise Gateway

Na de download kan je de installer starten, als er al andere applicaties draaien op de server is het zeer waarschijnlijk dat aan alle requirements voldaan wordt voor de installatie.

Power BI Gateway installatie

Je krijgt de keuze voor twee types gateway, kies hier voor de aanbevolen optie en dus NIET voor de personal mode!

Power BI Gateway Installtie modusDruk op volgende tot de installatie daadwerkelijk start.

Stap 3: Koppel Gateway

Na de installatie moet deze gekoppeld worden. Het maakt in principe niet al te veel uit welke user hier gekoppeld wordt, maar:

Alleen deze user kan:

  • aanpassingen doen aan de configuratie van de gateway zelf
  • Logging exporteren

Verder:

  • Er wordt een recovery code aangemaakt waarmee we deze user kunnen omzeilen, bewaar deze goed
  • Je moet met deze user in kunnen loggen op Office.com en je hebt dus een volledige O365 licentie nodig!

Power BI Gateway user

Je zal vervolgens een pop-up krijgen voor je credentials.

Vervolgens moet je een keuze maken of je een oude gateway wil recoveren of dat je een nieuwe gaat installeren, in ons geval installeren we dus een nieuwe:

Power BI Gateway Nieuw of Recover

Geef de gateway een naam en voer de herstelsleutel in, bewaar deze goed, we hebben deze nodig als we de gateway ooit zouden willen migreren naar een nieuwe server.

Power BI Gateway Recovery Key en naam

Je krijgt vervolgens de instellingen te zien, deze staan goed, dus die kan je zo laten:

Power BI Gateway regio

Zet tot slot het vinkje voor het verzenden van de gebruikersgegevens nog even uit. Vervolgens is de installatie klaar.

Power BI Gateway installatie voltooid

Stap 4: Autoriseer Gateway

Tot slot moet de gateway nog geautoriseerd worden. Deze is op dit moment alleen beschikbaar voor de user die je bij de installatie hebt opgegeven.

Log als deze user in op Offic.com, ga naar de PowerBI pagina en kies deze keer voor de “Settings” knop en kies voor manage gateways

Power BI Gateway autorisatie

Klik vervolgens op administrators:

Power BI Gateway administrators

 

 

De rest van de configuratie vind plaats vanuit Power Bi zelf.

AFAS Profit – Microsoft Power BI (Deel 1)

Het was voor ons al langer een wens om data uit AFAS Profit eenvoudig in Power BI te kunnen gebruiken, en alhoewel het nog steeds geen helemaal directe link is kunnen we nu wel middels een klein stukje Powershell en de Power BI gateway gebruik maken van automatisch bijgewerkte Profit data in Power BI.

De voorbereidingen beginnen in Profit:

Zorg er voor dat je eerst in AFAS Profit een app connector aanmaakt, koppel hier vervolgens een gebruiker aan en zorg er voor dat je het autorisatie token genereert.

De volgende stap is het toevoegen van de “Getconnectoren” die je automatisch wil exporteren. Het Powershell script zal alle getconnectoren voor deze gebruiker exporteren, dus het is zaak om te zorgen dat je alleen de data die je naar PowerBI wil sturen beschikbaar stelt voor deze connector. In dit geval betreft het drie connectoren:

 

Tot slot hebben we voor het exporteren van de data een klein stukje Powershell nodig:

$token = ‘<token><version>1</version><data>***</data></token>’
$encodedToken = [System.Convert]::ToBase64String([System.Text.Encoding]::ASCII.GetBytes($token))
$authValue = “AfasToken $encodedToken”
$Headers = @{
Authorization = $authValue
}

$url = ‘https://**/Profitrestservices//metainfo’
$file = ‘C:\PBIData\todo.json’
Invoke-WebRequest -Uri $url -OutFile $file -Headers $Headers

$todo = Get-Content -Raw -Path $file | ConvertFrom-Json

foreach ($conn in $todo.getConnectors.id){
$url = ‘https://**/profitrestservices/connectors/’+$conn+’?skip=-1&take=-1′
$file = ‘C:\PBIData\’+$conn+’.json’
Invoke-WebRequest -Uri $url -OutFile $file -Headers $Headers
}

Het bovenstaande script haalt de beschikbare getconnectoren op en zal deze vervolgens zonder filtering volledig ophalen en als JSON op de gespecificeerde locatie neerzetten. Overigens kan dit natuurlijk ook mooi opgelost worden met een stukje storage en een function app in Azure, maar dat is iets voor later :).

We hebben de data nu klaar staan voor de integratie met PowerBI, hoe dat in zijn werk gaat wordt in de volgende post uitgewerkt.

O365 Acceptatie: Train je gebruikers!

Toen Microsoft Office een volledig nieuwe interface kreeg raakte veel gebruikers flink in de war, en zelfs nu nog zijn er hele groepen gebruikers die weigeren naar nieuwe versies over te stappen. De een is bang voor verandering en de ander zit vast in zijn gebruiken in het oude systeem. Microsoft dendert ondertussen voort en blijft in een steeds hoger tempo aan alle elementen van zijn software sleutelen.

Bij een overstap naar een nieuwe Office versie wordt er maar zelden aandacht besteed aan het trainen van de gebruikers en bij een overstap naar Office 365 lijken we dezelfde fout te gaan maken. Voor de niet technisch onderlegde verantwoordelijke klinkt het als een nieuwe Office versie, voor de eindgebruiker is het allemaal hocus pocus en de techneuten vinden het vooral allemaal heel vanzelfsprekend en ligt de focus vooral op de technische uitdagingen.

De overstap naar Office365 is echter helemaal niet zo iets als even een nieuwe Office versie, het vraagt een nieuwe manier van werken en omgaan met je data om er optimaal gebruik van te maken. Daarnaast is het delen van je data zo kinderlijk eenvoudig dat je als bedrijf wel echt even moet nadenken over hoe je met je data om wil gaan en welke risico’s daar bij komen kijken.

Microsoft zelf hamert op een aanpak waarbij je in je organisatie een aantal “Hero’s” aanwijst die de nieuwe manier van werken moeten gaan uitdragen om de rest van je organisatie mee te krijgen in de nieuwe mogelijkheden die zij krijgen. In een moderne relatief kleine organisatie kan je zo een heel eind komen en ook in een organisatie waar het hele personeel een (it) technische achtergrond heeft ga je al flinke stappen kunnen zetten.

De meeste organisaties bestaan echter uit een flinke administratieve afdeling die hulp nodig gaan hebben bij het optimaal gebruiken van de nieuwe toolset die je ze gaat aanbieden. Je kan ze laten aanmodderen, maar dat gaat ten koste van de productiviteit en brengt mogelijk ook risico’s met zich mee. Daarnaast mis je op die wijze een hoop kansen die het werk voor je gebruikers flink eenvoudiger zouden kunnen maken.

De truck is dan dus om je medewerkers op te leiden, dat gaat in dit geval alleen niet door simpel even een trainer in te huren die in een middagje komt vertellen hoe Office365 werkt en wat er allemaal wel niet mee kan. Je zal zelf eerst op regie niveau moeten bepalen welke functionaliteiten er eventueel handig zijn voor jou organisatie. Dat betekent dus ook dat je goed zal moeten kijken naar welke processen er mogelijk geraakt worden door de nieuwe mogelijke werkwijzen en hoe deze eventueel verbeterd kunnen worden door het goed gebruik van de toolset die je voor handen hebt.

Zodra je al dan niet in een team de beste werkwijze bepaald hebt, en een keuze gemaakt hebt uit de elementen die je wil gaan gebruiken is het tijd om een trainer en je hero’s bij elkaar te halen. Gezamenlijk kan je dan gaan kijken hoe je de gebruikers kan betrekken bij deze nieuwe werkwijze en een zoveel mogelijk praktijk gerichte training in elkaar te zetten.

Door de training als kick-off in te zetten kan je de gebruikers in leuke stijl bekend maken met de nieuwe werkwijze en mogelijkheden. De hero’s moeten vervolgens benaderbaar zijn in de dagelijkse werkzaamheden zodat de gebruikers hun vragen altijd kwijt kunnen en zo min mogelijk hinder ondervinden van de nieuwe werkwijze.

Deze hero’s zijn ook je voelsprieten in de organisatie, zij zullen eventuele onvrede direct opmerken en daarop kunnen acteren. Let er op dat je in deze fase problemen niet te lang door laat lopen, dat gaat snel ten koste van het draagvlak voor de nieuwe werkwijze. Je wil namelijk koste wat kost voorkomen dat de oude en nieuwe systemen en gebruiken door elkaar heen gaan lopen.

Klinkt dit als veel werk? Dat kan kloppen de impact van de overstap naar Office365 voor je gebruikers wordt nogal eens onderschat, en natuurlijk blijft alles ook wel soort van werken op het moment dat je er verder geen aandacht aan besteed. Je zal alleen bij lange na niet gebruik maken van de potentie waar je wel voor betaald en je loopt aanzienlijke onnodige risico’s..

Wellicht ten overvloede, maar de stappen in het kort:

  • Bepaal de (gebruikers)processen die geraakt worden door een overstap naar Office365
  • Onderzoek welke bestaande processen verstoord raken door een overstap naar O365
  • Bekijk welke optimalisaties je aan de processen kan doorvoeren door goed gebruik te maken van de beschikbare nieuwe functionaliteiten
  • Leid een trainer op om de nieuwe werkwijze uit te dragen in de organisatie
  • Ga op zoek naar de hero’s in je organisatie die de nieuwe werkwijze kunnen uitdragen en ondersteunen binnen de organisatie.
  • Verzamel feedback over de nieuwe werkwijze en acteer hier zo snel mogelijk op

In de echte wereld is het natuurlijk wat complexer dan hierboven omschreven gezien je over het algemeen maar beperkte middelen tot je beschikking hebt en er meerdere belangen spelen. Maar denk in ieder geval ook eens aan de echte werkzaamheden van een gebruiker voor je de overstap maakt. En nee, de werkzaamheden zijn niet zo eenvoudig als het openen van een mailtje, of alleen het opslaan van een document.. Vraag ook eens door wat ze vervolgens met een mailtje doen, of welke stappen ze nu werkelijk doorlopen om een standaard document aan te maken en eventueel te versturen.

Er is in ieder geval nog een hoop te optimaliseren als we kijken naar hoe weinig van de beschikbare functionaliteiten gebruikt worden. En een eenvoudige optimalisatie van je processen is altijd welkom toch? Zeker als je alle tools die je daarvoor nodig hebt al in je abonnement hebt zitten en er dus geen aanvullende kosten bij komen kijken!

Office365 Integratie in je organisatie

Microsoft zet groot in op de acceptatie van Office365 binnen het bedrijfsleven en als ware techneuten hebben we ons lange tijd gefocust op hoe we dat technisch voor elkaar zouden krijgen. Hoe krijgen we de lokale omgeving geïntegreerd in de cloud oplossing van Microsoft en hoe gaan we de migratie naar de cloud vorm geven. Alhoewel hier op technisch vlak meer dan genoeg uitdagingen liggen waar veel van mijn collega’s ook mooie verhalen en ervaringen over kunnen delen ligt de grootste uitdaging misschien nog wel na de technische “implementatie” van Microsofst’s paradepaardje.

Een van de grote verschillen met hoe we gewent zijn om te werken is dat Microsoft probeert er op aan te sturen dat er zo min mogelijk data lokaal komt te staan. Idealiter open je vanuit de verschillende Office applicaties je files direct vanuit de Sharepoint (of de OneDrive of Groups lagen daar bovenop) je applicaties, ze gaan er dus min of meer vanuit dat je altijd online bent. Voor de gevallen dat je niet met het internet verbonden bent kan je de mappen en bestanden nog steeds lokaal synchroniseren, maar de kwaliteit van de OneDrive client die daarvoor gebruikt moet worden doet vermoeden dat ze dat liever niet zouden zien.

Data protection keyboardDit brengt meteen een grote uitdaging met zich mee ten opzichte van de meer traditionele IT. We hebben er jaren lang alles aan gedaan om al onze data binnen te houden, door te werken met centrale werkplekken in Citrix omgevingen en daarbuiten in zakelijke “containers”. Veel bedrijven zijn doodsbang voor het lekken van hun data en uitgerekend Microsoft zegt nu “Zet die data allemaal in de cloud, en dan maken wij het voor iedereen in je organisatie op elk van hun devices direct beschikbaar”. Dat is wel even schrikken als je beleid juist is dat je data niet naar buiten mag.

Toch biedt Microsoft meer dan genoeg tooling en middelen om veilig met je data om te kunnen gaan, we zullen hier alleen mee om moeten leren gaan. Daarbij zal voor de engineer die normaal alleen met de techniek om gaat ook een rol zijn weggelegd. De klant zal namelijk het vertrouwen moeten krijgen in deze nieuwe manier van werken, en dat vertrouwen zullen wij moeten onderbouwen. Om die rol te kunnen vervullen zal men de theoretische kennis die we hebben over dit onderwerp (DRM, Dataclassificatie enzovoorts).

En het is niet alleen de manier hoe we om gaan met onze data die zal veranderen, maar ook de snelheid waarmee nieuwe mogelijkheden aangeboden worden in onze werkwijzen zal gaan veranderen. Waar we voorheen in sommige gevallen bijna 10 jaar met eenzelfde software pakket konden blijven werken gaan we zien dat er aan de lopende band nieuwe aanpassingen aangebracht gaan worden aan de pakketten die we gebruiken. Van de ene op de andere dag kunnen er geheel nieuwe tools beschikbaar komen in de Office365 portal, wat moet je daar nou mee als organisatie? Enerzijds leuk al die nieuwe tools, maar hoe voorkom je dat je gebruikers de weg kwijt raken in dit doolhof?

Office365 Portal
Het aanbod aan apps is al groot, en zal zeker niet kleiner worden

En dan is dit nog maar het topje van de ijsberg, de nieuwe generatie medewerkers komt er aan en zij zijn wel gewend om snel te kunnen wisselen van applicaties en werkwijzes, dus we zullen er linksom of rechtsom onze draai in moeten gaan vinden.

Meer dan genoeg om over te schrijven dus, dit is de eerste post in een reeks waarbij ik op een aantal veranderingen in zal gaan die we in mijn optiek gaan meemaken in de manier hoe we werken en hoe we met onze data omgaan. Suggesties voor onderwerpen zijn uiteraard welkom :).