Deep Learning is een tak van Machine Learning, dat op zich weer een tak is van Artificiële Intelligentie. Klinkt fascinerend en schrikwekkend tegelijkertijd ! Vooraleer de vraag te beantwoorden of dit voor elke organisatie interessant is kunnen we beter eerst een andere vraag beantwoorden: is leren uit gegevens voor iedereen ? En daar is het antwoord voor bijna iedereen ja: "meten is weten". Soms is het zo simpel als gegevens in een Excel steken en grafiekjes maken. Misschien wil je verder gaan en patronen herkennen zodat je kan voorspellen. Daarvoor gebruiken we technieken uit de statistiek.
In bovenstaande voorbeeldgrafiek staan goede en slechte leningen op basis van 2 criteria X en Y. We proberen nu goede en slechte leningen uit elkaar te halen. Met eenvoudige (=lineaire) statistiek zoals we dat in Excel terugvinden kunnen we een begrijpelijke formule vinden die de best passende rechte tekent. Maar je ziet dat de (blauwe) rechte lijn onmogelijk de goede en de slechte perfect kan scheiden. Machine learning, wat in wezen niet anders is dan gevorderde (= niet lineaire) statistiek kan hier beter weg mee.
Een eerste techniek heet inductie. Deze deelt de grafiek in rechthoekige zones in, groen op de grafiek. Zoals je ziet worden goede en slechte leningen al beter onderscheiden. Het tweede grote voordeel van inductie is dat de formules begrijpelijk zijn: het zijn eigenlijk regels die samen een beslissingsboom vormen.
De volgende techniek, artificiële neurale netwerken (ANN) kan kromme functies maken, en kan dus nog beter de goede en slechte onderscheiden. Het grote nadeel is evenwel dat de formules zo complex zijn dat je op zicht niet kan begrijpen hoe een neuraal netwerk tot zijn conclusie komt. En verder heb je ook meer gegevens nodig opdat neurale netwerken hun volle potentieel benutten. Wil je echte topprestaties, dan heb je ruwweg en onnauwkeurig een 100.000-tal voorbeelden nodig, big data dus. Men spreekt dan over Deep Learning omdat die ANN diepe lagen hebben (niet omdat het leren diepzinnig zou zijn). Deze vereisen niet alleen big data, maar ook zeer krachtige hardware. Deze hardware en bijhorende Deep Learningsoftware is dan ook typisch als dienst in de cloud beschikbaar via de grote bedrijven als Google, IBM, Microsoft, Amazon...
Ik was dan ook blij dat deze visie enkele dagen geleden bevestigd geweest is op de Business & Data Analytics Summit, ingericht door I.T.Works, door de Amerikaanse specialist in Data Analytics Keith McCormick. (De drukbijgewoonde Summit was trouwens een aanrader en wellicht komt er wel een volgende editie)
Als je niet over big data beschikt kan je dus niet aan Deep Learning gaan doen. Maar veel organisaties kunnen hun statistisch arsenaal wel uitbreiden met Machine Learning technieken als inductie en eenvoudige neurale netwerken. Dit is geen taak voor statistici/machine teachers/data scientist alleen. Samenwerking met vakexperten is nodig om de gegevens te zuiveren en voor te bereiden vooraleer formules kunnen gemaakt worden. En experten moeten de resultaten begrijpen en kunnen interpreteren in welke zones de resultaten onvoldoende betrouwbaar zijn. De vakexperten moeten zich eigenaar kunnen voelen van de modellen. Die modellen onderhouden is dan een typische taak in communities.
Reacties