{"id":439867,"magazine_id":40147,"template_id":30,"title":"Bijstandsfraude voorspellen met big data","alias":"bijstandsfraude-voorspellen-met-big-data","page_no":6,"meta_keywords":null,"meta_description":null,"share_url":null,"options":{"has_disabled_header":false,"exclude_from_navigationbar":false,"share_url":null},"header":null,"content":{"background":{"filename":"ral7035_licht_grijs.34fcc669843c.jpg","uri":"\/images\/ral7035_licht_grijs.34fcc669843c.jpg","alt":null,"filemime":"image\/jpeg","filesize":49972,"width":1772,"height":1772},"nav_type":"arrows","rows":[{"row_type":1,"text_image":[{"title":"Bijstandsfraude voorspellen met big data","subtitle":"Interview","description":"<p>Wat zijn de mogelijkheden van big data bij het opsporen van fraudeurs in het sociaal domein? Steeds meer gemeenten verdiepen zich in dit vraagstuk. Zo wordt er momenteel in de regio Lekstroom en bij gemeenten in de regio Zeeland gewerkt met big data en Machine Learning om bijstandsfraudeurs beter in beeld te krijgen. Hoe gaat dat in zijn werk?<\/p><p><br><\/p><p><em>Door: Judith Nuijens, Sociaalweb<\/em><\/p><p><em>Gemiddelde leestijd: 12 minuten<\/em><\/p>","image":{"filename":"computer-1836330_1920.ab7789b5068c.png","uri":"\/images\/computer-1836330_1920.ab7789b5068c.png","alt":null,"filemime":"image\/png","filesize":736833,"width":1600,"height":786},"content_position":"0","style":{"subtitle":["color: rgb(65,127,171);","color: rgba(65,127,171,1);","line-height: 20px;","font-size: 20px;"]}}]},{"row_type":5,"custom_advanced":[{"block_type":0,"title":null,"description":"<p><strong>Bijstandsfraude<\/strong><\/p><p><br><\/p><p><strong><em>Wat zijn de voornaamste vormen van bijstandsfraude?<\/em><\/strong><\/p><p><em>Gerrit van Romunde:<\/em> Alle bijstandsfraude gaat erover dat mensen een uitkering krijgen, terwijl ze er geen recht op hebben. Er zijn drie grote soorten bijstandsfraude: vermogensfraude, woonfraude en inkomensfraude. De bijstand, het inkomensdeel van de Participatiewet, is echt een vangnetregeling en alleen bedoeld voor mensen die echt niet voor zichzelf kunnen zorgen.<\/p><p><br><\/p><p><em><strong>Waar lopen gemeenten tegenaan bij de bestrijding van bijstandsfraude? Waar zit het grootste knelpunt?&nbsp;<\/strong><\/em><\/p><p><em>Van Romunde:<\/em> Het grootste knelpunt is de bewijslast. Een gemeente heeft een vermoeden, krijgt ergens een signaal en dan kost het heel veel werk om te kijken of er daadwerkelijk sprake van fraude is of niet. Bij een vermoeden van vermogensfraude moet je bijvoorbeeld gaan zoeken waar het geld zit. Bij een vermoeden van woonfraude ga je op huisbezoek om bijvoorbeeld tandenborstels te tellen. En stel je voor dat je dat bij honderd mensen moet doen en vervolgens stel je bij vijf mensen vast dat die ongeoorloofd samenwonen. Dan heb je 95 mensen voor niets lastig gevallen en dat is heel vervelend.<\/p>","image":null,"youtube":null,"columns":"2","style":null},{"block_type":0,"title":null,"description":"<p style=\"color: rgb(255, 255, 255);\"><img style=\"width: 140px; height: 145px; float: right;\" src=\"https:\/\/www.mupload.nl\/img\/zubvsbczcutqw.jpg\"><\/p><p><strong>Gerrit van Romunde<\/strong> is gespecialiseerd in arbeidsmarktbeleid. Hij heeft een lange staat van dienst in het verbinding leggen tussen werk en inkomen, onderwijs en het bedrijfsleven. Hij begeleidt gemeenten op dit terrein bij het proces van visie tot implementatie. Gerrit is momenteel werkzaam bij Stimulansz.<\/p><p><br><\/p><p style=\"color: rgb(255, 255, 255);\"><img style=\"width: 140px; height: 145px; float: right;\" src=\"https:\/\/www.mupload.nl\/img\/6nudfiakcuzjv.jpg\"><\/p><p><strong>Jesse Luk&nbsp;<\/strong>is werkzaam bij Totta Data Lab, een data science bureau dat zich specialiseert in het voorspellen van menselijk gedrag vanuit data. Hij is binnen deze organisatie verantwoordelijk voor de vertaling van klantbehoefte naar machine learning oplossing. Daarnaast beweegt hij zich vaak tussen de econometrist\/data scientist en de klant in. Door zijn brede kennis van statistiek, data mogelijkheden en commercie begrijpt hij beide kanten van de tafel, hetgeen helpt om veel mooie en innovatieve trajecten uit te voeren.<\/p><p><br><\/p><p>Stimulansz en Totta Data Lab voeren gezamenlijk het project Machine Learning uit bij verschillende gemeentes in Zeeland, Utrecht en Zuid-Holland.<\/p>","image":null,"youtube":null,"columns":"2","style":{"background":["background: rgb(65,127,171);","background: rgba(65,127,171,1);"],"paragraph":["color: rgb(255,255,255);","color: rgba(255,255,255,1);"]}}]},{"row_type":4,"text":[{"title":null,"description":"<p><em>Jesse Luk:&nbsp;<\/em>Er zit een aantal fasen in het onderzoeksproces. Je mag niet zomaar op huisbezoek gaan. Er zit een vooronderzoek aan vast en op het moment dat niets wordt gevonden in dat vooronderzoek mag je ook niet zomaar verder met onderzoeken en een huisbezoek.<\/p><p><br><\/p><p><em><strong>Het is dus heel arbeidsintensief om de bewijslast rond te krijgen en het hele proces te doorlopen. Hoe kan big data daarbij helpen?<\/strong><\/em><\/p><p><em>Van Romunde:<\/em> Een handhaver of een klantmanager heeft vaak onbewust bepaalde idee\u00ebn over wanneer er extra kans op fraude is. Dat heet profiling en dat is discutabel, omdat het heel eendimensionaal is. Onlangs werd de rapper Typhoon aan de kant van de weg gezet, omdat hij als donker iemand in een hele grote auto reed. De politie heeft dan het profiel dat de kans dat dat crimineel is groter is. Met big data is het niet zo eendimensionaal. Daar ga je echt het gedrag in tijd van mensen op heel veel kenmerken in beeld brengen. En dan zal je zien dat iemand die in de amusementsindustrie werkt een veel grotere kans heeft om in een grotere auto te rijden.<\/p><p><br><\/p><p><em>Luk:&nbsp;<\/em>Een menselijk brein kan maar een beperkt aantal waarnemingen aan. Je kijkt bijvoorbeeld alleen naar hoe iemand eruit ziet of wie een bepaalde auto heeft. Big data bevat alles wat bekend is over een persoon en gaat veel verder dan een onderbuikgevoel.<\/p><p><br><\/p><p><em>Van Romunde:<\/em> Wij zijn ervan overtuigd dat data steeds belangrijker gaan worden in het werk dat we doen.<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><em><strong>Met behulp van Machine Learning en big data voorspellen jullie wie frauderen met een bijstandsuitkering. Hoe gaat dat in zijn werk?<\/strong><\/em><\/p><p><em>Luk:<\/em> Machine learning betreft een wetenschap, waarbij de computer kan leren van patronen en steeds slimmer wordt. In het geval van fraude hebben we een set met data, waarvan bekend is wie er fraude hebben gepleegd. En vervolgens zoekt de computer aan de hand van een Machine learning techniek die wij vinden passen bij de desbetreffende data dan zelf in al die variabelen naar verbanden die daarin zitten die horen bij een fraudeur. Met Machine Learning ontwikkelen we een algoritme en dat algoritme kan voorspellen. Bij het voorspellen kijkt het algoritme naar de nieuwe cases en variabelen en beoordeelt in hoeverre de combinatie van variabelen van \u00e9\u00e9n specifieke case lijkt op die van andere fraudeurs. Op basis hiervan geven wij een kans op fraude mee. De kracht van Machine Learning is dat je correcte en foutieve voorspellingen ook weer terug kunt geven aan de computer en dat de computer leert van de achterliggende patronen die zitten in die nieuwe data. Naarmate de computer meer voorspellingen doet en meer data tegenkomt wordt het voorspellend model steeds sterker. Het algoritme leert immers van alle nieuwe patronen die horen bij de nieuwe cases, na meerdere iteraties kan de nauwkeurigheid flink oplopen.<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><em>Luk:<\/em> Fraude voorspellen met Machine Learning is een van de moeilijkere dingen die er zijn. Dat heeft met een aantal dingen te maken. Als je voorspelt of iemand zijn contract opzegt, dan heb je vanuit het verleden een hele duidelijke database van mensen die weg zijn gegaan in een bepaalde periode en mensen die klant zijn gebleven. Bij fraude is dat net even anders. Je hebt onderzoeken gedaan waarbij je fraude hebt geconstateerd, maar je hebt ook onderzoeken waarbij je geen fraude hebt geconstateerd, maar dan weet je eigenlijk nog steeds niet helemaal zeker of er niet gefraudeerd is. En je hebt een bak waar nooit onderzoek naar gedaan is en dan weet je niet of er wel of geen fraude is geweest. Wel of niet frauderen kun je dus niet zo hard tegen elkaar afzetten. Daar komt bij dat het percentage fraudeurs ten opzichte van het geheel vaak heel klein is. Je hebt dus maar een kleine set met geannoteerde data waar je je algoritme op kan baseren. Bij contractopzeggingen heb je er vaak tienduizenden.<\/p><p><br><\/p><p><em>Van Romunde:<\/em> Met Machine Learning proberen wij ervoor te zorgen dat het effect van inzet groter wordt, dus dat de afdeling fraudepreventie of de sociale recherche alleen bij die gevallen komt waar de grootste kans op fraude is. Als je door heel goed te voorspellen in plaats van bij honderd mensen maar bij twintig aan hoeft te kloppen en tandenborstels te checken voordat je die vijf fraudeurs te pakken hebt, dan betekent het dat je nog maar vijftien mensen onterecht hebt lastig gevallen en tachtig mensen die niets kwaads in de zin hadden met rust hebt gelaten. Daar zit de winst van deze methode.<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><strong><em>\u201cBig data bevat alles wat bekend is over een persoon en gaat veel verder dan een onderbuikgevoel\u201d<\/em><\/strong><\/p>","columns":"0","style":{"paragraph":["color: rgb(65,127,171);","color: rgba(65,127,171,1);","line-height: 30px;","font-size: 30px;"]}}]},{"row_type":4,"text":[{"title":null,"description":"<p><em><strong>Hoe kijken gemeenten aan tegen het gebruik van deze methode?<\/strong><\/em><\/p><p><em>Luk:<\/em> Dat is heel wisselend. De ene gemeente vindt het heel praktisch en handig. De andere gemeente is er een beetje angstig voor. Ze zijn bijvoorbeeld angstig voor zaken zoals profiling. Neem het voorbeeld van Typhoon dat Gerrit noemde. Veel gemeenten zijn er angstig voor dat dat gebeurt bij het gebruik van big data. Terwijl Machine Learning juist het tegenovergestelde doet. Er wordt gekeken naar alle variabelen die beschikbaar zijn en de computer berekent op basis van al die variabelen een schatting op fraude. Dat is juist helemaal geen profiling en niet eendimensionaal.<\/p><p><br><\/p><p><em>Van Romunde:<\/em> Het heeft vaak ook met sentiment te maken. Het idee dat de computer door het hele uitkeringsbestand gaat en daar gaat lopen wijzen zonder dat iemand daar bij is, dat is heel eng. Dat onderbuikgevoel leeft bij veel mensen. Dat kan ik me ook wel voorstellen. In het sociaal domein heb je te maken met de meest kwetsbare mensen in de samenleving. Je probeert ze juist te helpen en dan is het wel heel eng om van de computer afhankelijk te zijn.<\/p><p><br><\/p><p><em>Luk:<\/em> Er is angst voor het idee dat de computer aanwijst wie er fraudeert, maar het blijft altijd een samenspel tussen de praktijk en wat wij als voorspelling opleveren. Er mag geen uitkering stop worden gezet, enkel op basis van een kanspercentage dat wij meegeven. Het eindoordeel ligt altijd bij de mens, op basis van het uitgevoerde rechtmatigheidsonderzoek. De angst verschuift wel wat meer op het moment dat het over bijstandsfraude gaat, omdat dat een soort van laatste vangnet is. Heb je het over het voorspellen wie er uitvalt in een schuldhulpverleningstraject, zodat je die mensen extra kunt helpen, dan is die angst vaak al een stuk minder. De gevolgen zijn veel minder groot.<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><strong><em>Wat is de nauwkeurigheid van jullie voorspellingen?<\/em><\/strong><\/p><p><em>Luk:<\/em> Dat is heel erg afhankelijk van de hoeveelheid data en de kwaliteit. Het verschilt per gemeente.<\/p><p><br><\/p><p><em><strong>Wat voor soort data gebruiken jullie voor Machine Learning en welke rol speelt privacy daarbij?<\/strong><\/em><\/p><p><em>Van Romunde:<\/em> We gebruiken de data uit de uitkeringsadministratie. Daar baseren we tot nu toe alles op. Als je extra gegevens erbij gaat gebruiken dan wordt het risicovol. Je krijgt dan te maken met privacy en welke gegevens je waarvoor mag gebruiken. Er is ook weinig jurisprudentie over wat wel en niet mag. Dus we moeten daar heel voorzichtig mee zijn.<\/p><p><br><\/p><p><em>Luk:<\/em> Is er verenigbaar gebruik van die gegevens voor het doeleind dat je wilt bereiken? Dat is de vraag die je constant moet stellen. En vanaf mei gaat natuurlijk ook alles weer veranderen. Nu is alles vanuit de Wet bescherming persoonsgegevens (Wbp) geregeld en straks wordt het vanuit de Algemene verordening gegevensbescherming (AVG, Europese privacyverordening) geregeld en daar staan wat andere regeltjes in. Wat bijvoorbeeld gaat veranderen vanaf mei is dat voor elk project waarin persoonsgegevens worden verwerkt een <em>privacy impact assessment<\/em> nodig is: welke gegevens gaan we gebruiken, hoe zijn die beveiligd en is er verenigbaar gebruik? Het betekent dat we heel veel extra administratieve handelingen gaan krijgen om dit soort projecten uit te voeren. Die assessments zijn overigens niet bindend. Het is puur voor een organisatie om het risico in te schatten van het project. Het eindoordeel blijft altijd bij de opdrachtgever.<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><strong><em>\u201cVanaf mei is voor elk project waarin persoonsgegevens worden verwerkt een privacy impact assessment nodig\u201d<\/em><\/strong><\/p>","columns":"0","style":{"paragraph":["color: rgb(65,127,171);","color: rgba(65,127,171,1);","line-height: 30px;","font-size: 30px;"]}}]},{"row_type":4,"text":[{"title":null,"description":"<p><strong><em>Voor welke gemeenten is Machine Learning geschikt en voor welke gemeenten niet?<\/em><\/strong><\/p><p><em>Romunde:<\/em> Een gemeente die alles zelf helemaal goed doet, die moet hier niet aan beginnen, want die heeft dat niet nodig. Het gaat erom wat de meerwaarde is van onze voorspelling bovenop hetgeen wat een gemeente zelf doet. Dat kan erin zitten dat wij meer mensen aanwijzen dan dat zij zelf in het vizier hadden, maar het kan ook zijn dat ze minder moeite hoeven te doen om zelf de mensen te vinden.<\/p><p><br><\/p><p><em>Luk:<\/em> Een gemeente moet wel voldoende cases hebben om op te bouwen en de data moeten ook goed geregistreerd zijn. Op het moment dat daaraan wordt voldaan is het eigenlijk voor elke gemeente interessant.<\/p><p>Van Romunde: De eerste winst voor gemeenten is dat ze een oordeel krijgen over de kwaliteit van hun data. Vervolgens gaan wij kijken wat we kunnen voorspellen op basis van die data. Als je slechte data hebt en je wilt toch gaan voorspellen, dan zal je het moeten gaan repareren en zorgen dat dat goede data worden (als dat nog kan).<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><strong><em>Wat verstaan jullie onder slechte data?<\/em><\/strong><\/p><p><em>Luk:<\/em> Laatst hebben we een gemeente gezien die het onderzoek naar fraude in \u00e9\u00e9n systeem had en de daadwerkelijke constatering van fraude in een ander systeem. Maar er was geen echte koppelsleutel. Dus toen moesten we het op basis van tijd aan elkaar gaan matchen. Daar zitten natuurlijk onzuiverheden in. Wij zeggen altijd \u2018garbage in is garbage out\u2019 met die modellen.<\/p><p><br><\/p><p><em>Van Romunde:<\/em> Een vakje overig is dodelijk. Bij overig weet je niet wat er gebeurd is en dat kun je dus niet gebruiken voor voorspellingen.<\/p><p><br><\/p><p><em><strong>Stel een gemeente klopt bij jullie aan en wil gebruik maken van jullie project. In de voorfase komen jullie erachter dat er niet genoeg data zijn of dat de kwaliteit van de data heel slecht is. Wat gebeurt er dan?<\/strong><\/em><\/p><p><em>Luk:<\/em> Er kunnen drie dingen gebeuren na zo\u2019n voorfase. In het meest positieve geval is alles goed en kunnen we het model gaan bouwen. Dat heb ik echter nog nooit meegemaakt. Het andere uiterste is dat wat een gemeente wil voorspellen niet kan met de data en wij er ook geen vertrouwen in hebben dat dat op termijn gaat gebeuren. Het meest voorkomend is dat we het model kunnen gaan bouwen, maar dat de nauwkeurigheid hoger kan worden als bepaalde dingen worden verbeterd de komende tijd. Dat gebeurt eigenlijk in 95% van de gevallen.<\/p><p><br><\/p><p><em>Van Romunde:<\/em> Dan moet een gemeente behalve investeren in het project ook investeren in de eigen data. Ze moeten dan een businesscase bouwen: wat kost het en wat denken we dat het op gaat leveren? We kunnen gemeenten op basis van een analyse van hun data goed adviseren of Machine Learning voor hen geschikt is.<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><em><strong>Waar is deze methode tot op heden toegepast?<\/strong><\/em><\/p><p><em>Luk:<\/em> In de regio Zeeland en bij Werk &amp; Inkomen Lekstroom (gemeenten in de Lekstroomregio). Ook zijn we nu aan het bouwen voor de gemeente Nissewaard. Er is nog een heel aantal andere gemeenten ge\u00efnteresseerd.<\/p><p><br><\/p><p><em>Van Romunde:<\/em> Lekstroom is een gemeente die al heel goed met handhaving bezig is en daar nog beter in wil worden. Lekstroom gebruikt Machine Learning voor dat laatste stukje om nog het topje erbovenop te zetten.&nbsp;<\/p><p><br><\/p><p><em><strong>Zijn het telkens losstaande trajecten of kunnen jullie data uit \u00e9\u00e9n gemeente in een ander project gebruiken?<\/strong><\/em><\/p><p><em>Luk:<\/em> Het zijn nu losstaande trajecten. Dat heeft er enerzijds mee te maken dat de gemeenten de data niet hetzelfde registreren, dus je moet altijd maatwerk toepassen. We zijn wel aan het nadenken of we die bestanden kunnen combineren om uiteindelijk het algoritme sterker te maken. Alleen dan komen we op het punt dat bijvoorbeeld het huurprijsniveau aan de ene kant van het land veel lager is dan aan de andere kant van het land en we weten niet wat dat betekent. Het uitwisselen van persoonsgegevens tussen twee verschillende organisaties is daarnaast verboden.<\/p><p><br><\/p><p><em>Van Romunde:<\/em> Maar het uitwisselen van algoritmen niet. Dus daar zou je een vorm voor moeten kiezen waarbij je het algoritme van het ene op het andere project kunt zetten en dan neem je persoonsgegevens niet mee. Daar zouden misschien mogelijkheden liggen. Maar opschalen is niet altijd beter. Soms is specificeren juist beter en nauwkeuriger. Naar mijn weten zijn wij de eersten in Nederland die bijstandsfraude voorspellen met Machine Learning. Het is nog een redelijk onontgonnen terrein.<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><strong><em>Deze methode wordt op dit moment toegepast bij het voorspellen van bijstandsfraude. In hoeverre is deze methode toepasbaar binnen het bredere sociale domein?<\/em><\/strong><\/p><p><em>Van Romunde:<\/em> Binnen de Wmo is fraude nog een redelijk onontgonnen gebied waar weinig ervaring mee is bij gemeenten. Het grote probleem daar is de beschikbaarheid van data en de ingewikkeldheid van fraude, omdat sprake is van een driehoeksrelatie: gemeente als opdrachtgever en financier van de voorziening, de daadwerkelijke zorgverlener en de zorggebruiker. Dat is ingewikkelder dan bijvoorbeeld bijstandsfraude waar je maar met twee partijen te maken hebt. Maar bij de Wmo zou de grootste winst te halen moeten zijn. Het voordeel bij het voorspellen van bijstandsfraude in vergelijking met andere toepassingen binnen het sociale domein, is dat hier de verdienste vaak heel duidelijk is. Wanneer je voorspelt in een schuldhulpverleningstraject wie er uitvalt en je zet er extra begeleiding op dan kost dat eigenlijk meer. Dat iemand makkelijker van zijn problematische schulden af kan komen voel jij niet in jouw kassa als gemeente. Dus het profijtbeginsel is heel duidelijk bij bijstandsfraude.<\/p>","columns":"0","style":null}]},{"row_type":4,"text":[{"title":null,"description":"<p><strong>Aan het woord: Wim Janssen, Werk &amp; Inkomen Lekstroom (WIL)<\/strong><\/p><p><br><\/p><p><em><strong>Waarom hebben jullie gekozen om met machine learning aan de slag te gaan?<\/strong><\/em><\/p><p>Bij WIL was bekend dat de onderneming Totta een partner zocht voor een Pilotproject voor het door middel van gebruik van \u201cbig data\u201d en \u201cMachine Learning\u201d maken van risicoanalyses binnen een bestand met uitkeringspartijen. WIL focust zich sterk op de rechtmatigheid van de verstrekkingen ten einde het maatschappelijk draagvlak voor de sociale voorzieningen te behouden. Door handhaving in te bedden in de procedures reageren we snel en weten klanten dat fraude niet loont. Een methode hiervoor is het inzetten van themacontroles voor het ontdekken van misbruik en oneigenlijk gebruik van uitkeringen. WIL is constant op zoek naar methoden om controlewerkzaamheden snel en effici\u00ebnt uit te voeren met een zo gering mogelijke (administratieve) belasting voor onze klanten en voor WIL. Bij WIL werken we met een Innovatieagenda met zijn eigen budgetten. De bedoeling daarbinnen is innoveren en bezuinigen. Het gebruik van de bij WIL aanwezige data en het systeem van algoritmes en machine learning lijkt een goede manier om misbruik en oneigenlijk gebruik van uitkeringen te ontdekken en daardoor besparingen op uitkeringen te genereren.<\/p><p><br><\/p><p><em><strong>Wat waren jullie verwachtingen van het project?<\/strong><\/em><\/p><p>Dat verwachting was een eenvoudig toe te passen model voor risicoanalyse en besparingen op uitkeringsgelden.<\/p><p><br><\/p><p><em><strong>Wat is jullie rol in dit project? Wat wordt van jullie verwacht?<\/strong><\/em><\/p><p>Binnen de Pilot onderzocht WIL of deze manier van rechtmatigheidscontrole binnen de wettelijke kaders viel. We hebben een bewerkingsovereenkomst opgesteld met Totta. We hebben de data aangeleverd en de feitelijke controle-onderzoeken naar de resultaten van de vergelijkingen uitgevoerd.<\/p><p><br><\/p><p><em><strong>Wat zijn de uitdagingen?<\/strong><\/em><\/p><p>We zien de volgende uitdagingen: 1) Kunnen we data aanleveren op een zodanige wijze en van een kwaliteit dat zij gebruikt kunnen worden voor het maken van de algoritmes en voor de vergelijking?; 2) Is er een manier te vinden waarop we effici\u00ebnt en effectief een rechtmatigheidsonderzoek kunnen doen naar de resultaten van de vergelijkingen?; en 3) Belasten we de klanten en de organisatie niet onevenredig zwaar met de werkzaamheden hiervoor?<\/p><p><br><\/p><p><em><strong>Wat heeft het jullie tot op heden opgeleverd? Wat zijn de resultaten tot dusverre en hoe kijken jullie daar tegenaan?<\/strong><\/em><\/p><p>De onderzoeken naar ongeveer 40 klanten die op basis van de vergelijkingen zijn geselecteerd leidden tot ongeveer 6 be\u00ebindigingen en een 3tal mutaties. Dat is een aangetoonde fraude van ongeveer 20% van het aantal onderzochte uitkeringspartijen. &nbsp;Dat is minder dan de bij WIL gebruikelijke ontdekking van fraude bij externe signalen. Deze ligt op ongeveer 40%. Een onderzoeksmethodiek is ontwikkeld waarbij de gemiddelde onderzoeksduur 3 uren per uitkeringspartij is. De geselecteerde personen worden administratief onderzocht en zij krijgen het verzoek voor het inleveren van bankafschriften. Zo nodig zijn daarna gesprekken met een handhaver. De gerealiseerde resultaten zijn uitkomst van dit onderzoek met de resultaten ontstaan door het schenden van de inlichtingenplicht door het niet inleveren van de bankafschriften. Na de evaluatie van de pilot over 2016 heeft WIL besloten de pilot te verlengen naar 2017. Het aantal onderzochte uitkeringspartijen was nog te gering om tot een goed oordeel te komen, maar de resultaten waren tot nu wel positief. Het is nu een eenvoudige wijze van risicoanalyse en de opbrengsten (besparingen) zijn hoger dan de kosten. Aandacht is vooral nodig voor het verhogen van het percentage ontdekte fraudegevallen.<\/p>","columns":"0","style":{"background":["background: rgb(65,127,171);","background: rgba(65,127,171,1);"],"paragraph":["color: rgb(255,255,255);","color: rgba(255,255,255,1);"]}}]}]}}