Alexandra Instituttet A/S // Cases // Massive data

Massive data

Case

Massive data

Processering, visualisering og fortolkning

Nye og bedre softwaremetoder og algoritmer.

Startdato 01-01-2010 / Slutdato 01-01-2012

Projektet vil tackle to af de udfordringer, der ligger i den videre udvikling af pervasive computing.

Udfordringerne består i, at mængden af information og data stiger så kraftigt, at den ikke kan udnyttes med traditionel softwareudvikling. Desuden er den enkelte processor-kerne, som størstedelen af softwaren i den danske industri er udviklet til, ikke blevet hurtigere siden årtusindeskiftet.

Formålet med arbejdet er at gøre dansk erhvervsliv i stand til at udnytte de massive mængder data man ligger inde med, og som i dag kun i neddroslede versioner kan processeres, visualiseres og fortolkes. Desuden kan projektet udvikle nye anvendelser af data til processering, visualisering og fortolkning ved til fulde at udnytte multi-core processorer tilgængelige i moderne pc’er.

Alexandra Instituttet vil udvikle relevante teknologiske services i relation til massive data. Udviklingen sker igennem konkrete anvendelsescases i samspil med relevante virksomheder.

Projektets forskningsindsats bygger bl.a. på igangværende Alexandra-projekter og desuden på samarbejde med danske og internationale forskningsmiljøer.

Projektets grundlæggende hypotese er, at problemet med afstanden mellem mængden af data og maskinernes beregningskapacitet kan løses ved at formulere nye og bedre softwaremetoder og algoritmer.

Herigennem sikres en bedre udnyttelse af tilgængelige datamængder og beregningsenheder, der igen skaber muligheder for helt nye anvendelser inden for en lang række brancher.

Det er projektets mål at undersøge disse hypoteser og at udvikle nye teknologiske services inden for forskellige brancher. Der fokuseres bl.a. på energi, finans og grøn it. Desuden arbejdes der med oplevelser, design og new media.

Streaming software og algoritmer, herunder streaming på mobile enheder og udvikling i Hadoop, en open source implementation af Map-Reduce programmeringsmodellen - udviklet af Google til batch processering af meget data-intensive beregninger på distribuerede systemer.

Desuden vil  projektet oparbejde konkrete kompetencer i udvikling af software til multi-core processorer, herunder de mange forskellige hardwarearkitekturer, der effektivt kan løse specialiserede problemer.

Interaktive Infographics, herunder udvikling af interaktive illustrationer og informationsgrafik til formidling af kompleks information – henover web, mobiler og storskærme.

Desuden arbejdes der med medicinsk visualisering og simulering, bl.a. udvikling af generelle kirurgiske simulatorer, som kan tilpasses en konkret type operation – heriblandt en simulator af sutur af bristninger i mellemkødet ved fødsler.

Projektet udvikler også simulation af visuelle fænomener gennem konstruktion af en softwarekomponent, der kan beregne meget præcis gengivelse af visuelle fænomener (global illumination) meget hurtigt ved hjælp af GPU-acceleration samt at bringe dette i anvendelse i forbindelse med realistisk billeddannelse til interaktivt design.

Sidst vil projektet arbejde med fortolkning af massive data, bl.a. state-of-the-art algoritmer, integration af positioneringsdata og brain-computer interface.

Projektet var finansieret af Rådet for Teknologi og Innovation.

 

Vi lægger også den visuelle vinkel på big data-begrebet. 

Ønsker du hjælp til at beregne og visualisere dine data?

Kontakt
Head of Visual Computing Lab, PhD
+45 21 66 53 65
Profilbillede af Jesper Mosegaard Se profil
.