Alexandra Instituttet A/S // Aktuelt // Nyheder // Nyheder 2019 // For at realisere potentialet i maskinlæring skal du have styr på både metode og data

For at realisere potentialet i maskinlæring skal du have styr på både metode og data

Artikel

22-05-2019

For at realisere potentialet i maskinlæring skal du have styr på både metode og data

En af de lavthængende frugter er at trække data ud af maskinen og produktionen, som du ikke umiddelbart tror, at du har brug for. Maskinlæring kan bruges til at overvåge komponenters tilstand og forudsige, hvornår der er behov for vedligehold.

Nedbrud af maskiner er dyrt. Derfor er begrebet prædiktiv vedligehold eller på engelsk predictive maintenance gledet ind i mange brancher. Det gælder alt lige fra køleanlæg, vaskemaskiner eller andre fysiske installationer, der indeholder komponenter, som kræver vedligehold, og som med jævnligt skal udskiftes. De bliver udstyret med sensorer, der opsamler data om komponenternes status og dermed hjælper med at forudsige slid eller fejl.
 
Man har arbejdet med prædiktiv vedligehold i mange år inden for oliebranchen, netop fordi det er ekstremt dyrt, hvis en olieplatform går ned. Og hvis den gør det, vil man i det mindste gerne vide, hvornår man skal lukke den ned. Derfor må man have en lærende komponent, som kigger på data i produktionskæden og sammenligner det med almindelig adfærd. Herved kan man også opfange, hvis noget går galt og diktere, hvad der er normal adfærd.

Få gjort dataene tilgængelige

Det er her, at maskinlæring kommer ind i billedet, fordi det er et rigtigt stærkt værktøj, der kan bruges til at lære mønstre og forudsige hændelser. Det er en sikker business case, men de tekniske udfordringer med at få data ud af systemet kan være ganske omfattende.
 
Det betyder nemlig, at man skal have data ud fra hver lille boks og analysere dem. Selv om de enkelte data kan være små, så kan de være højfrekvente. Hvis man har hundrede maskiner, bliver det til mange terabyte. Strømmende data giver tillige nogle andre udfordringer end, hvis man har alle dataene samlet i en stor spand. Det er en ren engineering-opgave, der kræver, at man kan flytte dataene over på den platform, man skal køre algoritmer på.
 
Med maskinlæring kan der opstilles regler. F.eks. kan man ud fra data afgøre, om maskindelene endnu ikke er slidte. Eller omvendt forudsige, hvilke dele der slides hurtigere end forventet. Herved kan man foretage en forudsigelse af, hvornår de enkelte dele skal udskiftes.

Kræver indsigt at vælge de rigtige værktøjer

Ud over at have styr på dataopsamlingen kræver det, at man ved, hvilke maskinlæringsmetoder, man skal anvende. For alle virksomheder er det ressourcekrævende at dykke ned i ny teknologi. Man har måske en forventning om, at det det indeholder potentialer for virksomheden, men er usikker på, hvad det kræver af investeringer.
 
Specielt inden for AI-området går metodeudviklingen stærkt. Dels fordi mange forsker inden for området, men også fordi nye datasæt og forbedret hardware hele tiden skubber grænserne for, hvad der er muligt. Det betyder, at det kan være svært at afgøre, hvilken algoritme man skal vælge.
 
Det er her, at vidensorganisationer som f.eks. Alexandra Instituttet kan yde rådgivning. Her kan man få overblik den nyeste udvikling med udgangspunkt i ens specifikke data og behov og ud fra det få anbefalinger til relevante teknologiske løsninger.
 
Artiklen er skrevet af Anders Kofod-Petersen og Jakob Langdal Jensen, der er hhv. vicedirektør og Principal Cloud Architect på Alexandra Instituttet. Den blev bragt i det seneste nummer af DAU-bladet - der udgives af Dansk Automatisationsselskab, som er en forening under Dansk Industri.

Hele artiklen kan læses her.

 

Profilbillede af Jakob Langdal Jensen
Principal Cloud Architect
+45 23 38 24 81
Åbogade 34, 8200 Aarhus N
Hopper bygningen, 2. etage lokale 232
.