Alexandra Instituttet A/S // Aktuelt // Nyheder // Nyheder 2018 // Deep learning-teknikkerne er her – og de er allemandseje

Deep learning-teknikkerne er her – og de er allemandseje

Artikel

19-06-2018

Deep learning-teknikkerne er her – og de er allemandseje

It-giganter som Google har sat sig tungt på markedet for kunstig intelligens, men den gode nyhed er, at de også har demokratiseret teknologierne, så de nu er tilgængelige for alle. Det skaber helt nye muligheder for danske virksomheder.

Det er især de seneste års udvikling inden for deep learning, der har sat gang i en industriel udvikling. Deep learning er en maskinlæringsteknik, der kan bruges inden for bl.a. talegenkendelse og billedanalyse.

Demokratisering af teknikkerne

Det store gennembrud inden for de sidste 5-6 år skyldes især, at der er kommet en masse annoterede data, som vi genererer via vores smartphones og deling af billeder på sociale medier. Når data er annoterede, er det en måde at fortælle computeren, at et billede indeholder en kat eller en hund – og ofte også hvorhenne i billedet. Men der er også sket en masse på algoritme- og hardwaresiden, så computerne er blevet hurtigere og bedre til at træne neurale netværk. Det har gjort det muligt at bruge de her teknikker, der ellers er gamle.

Sådan lyder det fra Henrik Pedersen, Team Leader i Visual Computing Lab på Alexandra Instituttet, der i samarbejde med NVIDIA Deep Learning Institute (DLI) kørte en række hands-on kurser i, hvordan man kommer i gang med at bruge deep learning inden for computer vision. NVIDIA er en af verdens største producenter af GPU-baserede grafikkort, men i dag er hardware til kunstig intelligens deres primære forretning.

Der er kommet databaser med billeder inden for alle mulige kategorier. Det skyldes bl.a., at der er opstået en delingskultur med, at man lægger annoterede billeder ud og dermed laver databaser og gør værktøjerne til en hyldevare. Der findes fx databaser med menneskers bevægelser i forbindelse med sportsudøvelse, og så kan man relativt let træne et neuralt netværk, der kan analysere golfsving eller dansetrin.

Nemt at komme i gang

En anden vigtig pointe er, at teknikkerne ikke kræver domænekendskab. Man skal ikke vide en masse om computer vision. Hvis du har billeder af hunde og katte, så findes der en hyldevare, der kan trænes op til at skelne mellem hunde og katte. Det nye med deep learning er, at man kan begynde at arbejde med komplekse programmer i kraft af, at man har dataene til rådighed.

“Det er oplagt, hvis du er en virksomhed, som ligger inde med unikke data. Det kan være mikroskopbilleder af kræftceller. Ved at annotere dem kan du træne et neuralt netværk til at kunne skelne mellem kræft- og ikke-kræftceller. Hvis du har annoteret dine data fx ved at inddele dem i passende kategorier, kan du komme hurtigt i gang.”

Man opnår måske ikke 100 procents genkendelse i første omgang, men her findes der ifølge Henrik Pedersen også nogle simple tricks, som de underviser i på kurset. Ideen med kurset er netop, at der ikke er for meget teori, men at man kommer hurtigt i gang med at arbejde med værktøjerne, så man hurtigt får føling med, hvordan man træner et neuralt netværk.

Klassificerer tatoveringer

Et oplagt eksempel på en virksomhed, der har integreret deep learning i deres forretning, er Tattoodo. De har et socialt netværk, hvor folk lægger billeder af deres tatoveringer ud. Det giver dem en masse unikke data, der gør det muligt at gætte stilarten på tatoveringerne. Det svarer til eksemplet med hundene og kattene. Her er det bare et neuralt netværk inden for tatoveringer.

“Med til historien hører også, at personen bag har brugt det værktøj, som vi også underviser i. Tattoodo var grundlæggende udfordret af, at de brugte meget tid på at klassificere tatoveringerne, men fordi de via deres medlemmer har fået adgang til unikke data, så kan de træne et AI-netværk op, der kan klassificere deres billeder. Samtidig kan det bruges til at foreslå hashtags under upload og redigering. Derudover kan de levere inspiration til deres medlemmer baseret på de motiver, som de kan lide, eller baseret på de kunstnere, de følger.”

Holder øje med befrugtede æg

Deep learning-teknikken kan også bruges til at finde ting i billeder. Det gælder alt – lige fra pukkelhvaler til biler. Det tager typisk lang tid, hvis man søger store mængder billeder igennem manuelt, men processen kan automatiseres ved at lære et neuralt netværk op. Værktøjerne findes som hyldevare og er lige til at downloade og tage i brug, forklarer Henrik Pedersen.

En lang række firmaer benytter teknikken. En af dem er danske Vitrolife, der laver rugemaskiner til fertilitetsbehandling. De holder øje med det befrugtede ægs udvikling ved at tage mikroskopbilleder. Den procedure er enormt tidskrævende, men ved hjælp af deep learning kan man sætte en computer til at holde øje med udviklingen.

En andet eksempel er RetinaLyze, der arbejder med nethindebilleder. Ved at kigge på nethinden så kan en ekspert fx se følgevirkninger af diabetes, som kan forårsage blindhed. Men de lægelige eksperter har man selvfølgelig ikke adgang til ved de øjenscannere, der står ude ved optikere, og derfor arbejder man på at forbedre software, der kan screene for sygdomme.

Inspicerer Storebæltsbroen for revner

Deep learning kan også bruges til at kigge på maling eller beton for at se, om der er skader og revner og trænger til at blive repareret.

Det giver god mening for en virksomhed som Sund & Bælt, der har ansvaret for vedligeholdelsen af Storebæltsbroen. I stedet for at man skal have fire mand til at kravle rundt i tre uger på broens yderside i 250 meters højde, er man begyndt at teste droner, der automatisk kan udpege de steder, der skal repareres. Deep learning betyder også, at i stedet for at man skal kigge 3000 billeder igennem, så får man 100 kvalificerede billeder af steder, der trænger til at blive repareret. Simpelthen fordi softwaren er blevet fodret med viden om betonkonstruktioner.

Et andet eksempel er EIVA, der bl.a. udvikler software til opsamling, visualisering og behandling af data fra sensorer monteret på undervandsrobotter. Det bliver eksempelvis brugt i forbindelse med, at der skal lægges rør på havbunden eller placeres havvindmøller. Men med flere kilometer rør på havbunden er det enormt tidskrævende at inspicere efter skader, og derfor har man kunnet automatisere processen ved at fodre deep learning-funktioner i softwaren med billeder af rør og konstruktionerne.

Lærer omgivelserne at kende

Et sidste eksempel er MIR eller Mobile Industrial Robots, der er en del af den fynske robotklynge, og som netop er blevet solgt til amerikanske Teradyne for et milliardbeløb. De producerer robotter til bl.a. sygehuse. På sygehuset har de robotter fra forskellige producenter, der ikke kan tale sammen. Det sker så ofte, at robotterne vil blokere fx dørene og andre smalle passager for hinanden.

Ved hjælp af deep learning kan man træne et neuralt netværk op, der kan lokalisere omgivelserne. Når der kommer en sygeplejerske på et løbehjul, eller der sker andre ting, der er unikke for omgivelserne, så kan systemet genkende det. Og igen så kræver det her ikke domænekendskab. Det eneste, man skal have, er dataene. Helt lavpraktisk går vi ned på sygehuset og laver en form for videoovervågning, der optager det, der bevæger sig. Når man har gjort det tilpas mange gange, har systemet lært at genkende omgivelserne.

Henrik Pedersen er ikke i tvivl om, at deep learning-teknikker rummer et stort potentiale.

“Man siger, at i et land som Tyskland, der forsvinder alle folk, som arbejder med deep learning, ind i bilindustrien. Stort set alle de parametre, der er forbundet med selvkørende biler, involverer deep learning. Altså at kunne forstå omgivelserne og kunne se, at her er en cyklist, og her er en fodgænger. Vi har jo ikke nogen bilproducenter, men der er masser af andre muligheder, og vi har rigtig meget data. Det gælder især inden for sundhedsområdet, hvor man kan tage et hjertescanningsbillede, og ved hjælp af deep learning kan hive noget data ud, og dermed kan automatisere en radiologs arbejde. Der er rigtig mange, der kigger den vej.”

 

Profilbillede af Henrik Pedersen
Team Leader
+45 22 59 77 38
Åbogade 34, 8200 Aarhus N
Nygaard bygningen, 3. etage lokale 305
.