Massive data

Case

Massive data

Processering, visualisering og fortolkning

Nye og bedre softwaremetoder og algoritmer.

Startdato 01-01-2010 / Slutdato 01-01-2012

Projektet ville tackle to af de udfordringer, der lå i den videre udvikling af pervasive computing.

Udfordringerne bestod i, at mængden af information og data steg så kraftigt, at den ikke kunne udnyttes med traditionel softwareudvikling. Desuden var den enkelte processor-kerne, som størstedelen af softwaren i den danske industri er udviklet til, ikke blevet hurtigere siden årtusindeskiftet.

Formålet med arbejdet var at gøre dansk erhvervsliv i stand til at udnytte de massive mængder data, man ligger inde med, og som  kun i neddroslede versioner kan processeres, visualiseres og fortolkes. Desuden kunne projektet udvikle nye anvendelser af data til processering, visualisering og fortolkning ved til fulde at udnytte multi-core processorer tilgængelige i moderne pc’er.

Alexandra Instituttet ville udvikle relevante teknologiske services i relation til massive data. Udviklingen skete igennem konkrete anvendelsescases i samspil med relevante virksomheder.

Projektets forskningsindsats byggede bl.a. på igangværende Alexandra-projekter og desuden på samarbejde med danske og internationale forskningsmiljøer.

Projektets grundlæggende hypotese var, at problemet med afstanden mellem mængden af data og maskinernes beregningskapacitet kunne løses ved at formulere nye og bedre softwaremetoder og algoritmer.

Herigennem blev en bedre udnyttelse af tilgængelige datamængder og beregningsenheder sikret, der igen skabte muligheder for helt nye anvendelser inden for en lang række brancher.

Det var projektets mål at undersøge disse hypoteser og at udvikle nye teknologiske services inden for forskellige brancher. Der blev bl.a. fokuseret på energi, finans og grøn it. Desuden blev der arbejdet med oplevelser, design og new media.

Streaming software og algoritmer, herunder streaming på mobile enheder og udvikling i Hadoop, en open source implementation af Map-Reduce programmeringsmodellen, udviklet af Google til batch processering af meget data-intensive beregninger på distribuerede systemer.

Desuden oparbejdede projektet konkrete kompetencer i udvikling af software til multi-core processorer, herunder de mange forskellige hardwarearkitekturer, der effektivt kan løse specialiserede problemer.

Interaktive Infographics, herunder udvikling af interaktive illustrationer og informationsgrafik til formidling af kompleks information – henover web, mobiler og storskærme.

Desuden blev der arbejdet med medicinsk visualisering og simulering, bl.a. udvikling af generelle kirurgiske simulatorer, som kan tilpasses en konkret type operation – heriblandt en simulator af sutur af bristninger i mellemkødet ved fødsler.

Projektet udviklede også simulation af visuelle fænomener gennem konstruktion af en softwarekomponent, der kan beregne meget præcis gengivelse af visuelle fænomener (global illumination) meget hurtigt ved hjælp af GPU-acceleration samt at bringe dette i anvendelse i forbindelse med realistisk billeddannelse til interaktivt design.

Projektet arbejdede også med fortolkning af massive data, bl.a. state-of-the-art algoritmer, integration af positioneringsdata og brain-computer interface.

Projektet var finansieret af Rådet for Teknologi og Innovation.

Vi lægger også den visuelle vinkel på big data-begrebet. 

Ønsker du hjælp til at beregne og visualisere dine data?

Kontakt
Head of Visual Computing Lab, PhD
+45 21 66 53 65
Profilbillede af Jesper Mosegaard Se profil
.