6 kritiske utfordringer ved datadrevet produksjon

Ønsker du å implementere en mer datadrevet produksjon i selskapet ditt? Da finnes det seks kritiske utfordringer du blir nødt til å forholde deg til.

6 kritiske utfordringer ved datadrevet produksjon

De siste årene har konsepter som Machine Learning, Automasjon og Big Data for alvor gjort sitt inntog i produksjonsindustrien. Ettersom det har blitt mer utbredt med billige sensorer, og muligheter for å koble disse til selskapets eksisterende systemer, finnes det et potensial for å utnytte utviklingen innenfor datadrevet produksjon. Men da blir du nødt til å ta fatt på noen utfordringer.

Vi ha tatt en titt på de seks områdene som kommer til å utfordre selskapet ditt, når du vil skifte til en mer datadrevet produksjon.

1. Effektiv og hurtig analyse av data
I selskaper som Vestas og Sandvik, har man i flere år jobbet med å montere sensorer på maskiner og vindmøller for å samle inn data og utnytte den kunnskapen for å forutse både effektivitet i produksjonen, og når det skal utføres service. Dette hjelper deres kunder med å oppnå en høyere Overall Equipment Effectiveness.

Den største utfordringen har aldri vært å samle inn data – men det å trekke ut kunnskap raskt og effektivt å bruke dette i sanntid, har vært en utfordring.

I mange produksjonsselskaper foretar man dataanalyse manuelt den dag i dag, og med den økende mengden av data, blir det bare vanskeligere og tyngre å hente ut informasjon. Derfor er du nødt til å full kontroll på automatiseringen av både analysen og presentasjonen av data.

Spørsmålet er spesielt relevant hvis du ønsker å lykkes med å koble sensorer eller registrerte prosesser på dine maskiner og produkter. Da kan du bruke den nyeste kunnskapen i sanntid eller nær-sanntid som en del av styringen i produksjonen. For dette kommer til å bli en byrde som ikke kan gjøres manuelt.

2. Agilitet vs. effektivitet
I dagens produksjonssystemer blir alt planlagt etter tid. Produksjonen planlegges langt i fremtiden, og baseres ofte på antagelser og prognoser om fremtidige  salg av mer eller mindre generiske produkter.

I fremtiden vil vi se at selskaper som i høyere grad tilpasser varer mot kunden (som DNA-tilpasset medisin, spesialfremstilte verktøy og maskiner, og mat med råvarer fra spesielle leverandører, for å nevne noen eksempler) eller venter med å produsere varen, til ordren ruller inn for å minimere lagernivået. Dermed kan du først starte produksjonen når ordren er lagt inn. Det skjer i et marked, som i høyere grad individualiseres, og hvor kundene i høyere grad enn tidligere skaper sin identitet gjennom de produktene de velger i sin hverdag.

Det gir en mye mindre strukturert produksjonsflyt. Et større antall varianter av et gitt produkt, kombinert med færre enheter pr. Ordre, og det faktum at du aldri vet helt sikkert, hvilke ordre som kommer inn, betyr at kompleksiteten øker enormt. Det krever mye mer data og kommunikasjon, som skal behandles raskt i systemet, før en vare er ferdig produsert. Dermed risikerer du at både produksjonen går langsommere og mindre effektivt, når man ikke kan planlegge for fremtiden.

De selskaper som masseproduserer, som klarer å finne en løsning, hvor de holder produktiviteten og hastigheten oppe, selv om de spesial-fremstiller varen til kunden, får store fordeler i forhold til konkurrentene, i en verden hvor kunden forventer levering på en rask og tilfredsstillende måte.

3. Interaktiv/dynamisk data fremfor død data
I dag er det en standard i de fleste IT-systemer til selskaper og bedrifter, at de bruker input fra hverandre. For eksempel innhenter MES-systemet data fra ERP-systemet og bruker dette i produksjonen, hvor det igjen overføres til automatiserte robotsystemer. ERP-systemet får til gjengjeld data tilbake, når MES-systemet har utført sin del av oppgaven, slik at dette kan videreformidles til resten av selskapet.

Data importeres og tilpasses mellom systemer i bestemte datapunkter eller i grenseflater, og er ikke det samme som data. Det er fordi maskinene opprinnelig er designet hver for seg, og har ikke blitt laget for å snakke med andre systemer.

Derfor går data også kun en vei: videre til produksjonen. Derfor blir det betegnet som “død data”. Det har derfor stor betydning når selskapets produksjon automatiseres. For når det registreres feil, og produktet blir forkastet, eller data tilpasses lengere nede i systemet for å rette opp på feil, går disse rettelsene ikke tilbake i systemet. Derfor vil de første leddene i produksjonen fortsette med å sende defekte produkter gjennom systemet, helt til noen manuelt foretar en justering, eller oppdager hva kilden til feilen er.

I et "worst case scenario" er at du får et produksjonsanlegg, som hele dagen produserer produkter, som konsekvent må kastes på kvalitetskontrollen. Da får du en produksjon som aldri stopper, fordi problemet ikke løses, og dermed kommer ikke det fastsatte antallet av godkjente varer igjennom. Dette er en problemstilling som raskt blir oppdaget når man overvåker produksjonen manuelt, men blir også langt mer realistisk når IT-systemene selv for ansvaret i større grad.

For å lage en virkelig god automatisert produksjon, blir du nødt til å sikre at feilen blir registrert lengre fremme i produksjonen. Det resulterer i at data føres tilbake gjennom systemet, slik at man kan identifisere hvor feilen oppstår, og kan stoppe eller tilrettelegge produksjonen, inntil feilkilden (for eksempel en ødelagt maskin eller støpeform) er funnet, og problemet er løst.

Problemet med død data kan enten løses ved å anskaffe eller designe programmer og maskiner, som bruker samme datamodell på tvers av produksjonen. Dermed kan man i praksis bruke og synkronisere samme data. Dette blir for de fleste en dyr investering, med teknologiske utfordringer, som ligger en del år frem i tid. Derfor jobbes det mot å utvikle og implementere produktet life-cycle management middleware. Middlewaren kan her overvåke og kontrollere produksjonen og for eksempel foreta endringer i data, som endrer ingredienssammensetningen i det første leddet av produksjonen, når feil blir oppdaget i senere ledd av produksjonen.

Dette bringer oss videre til....

4. Integrering av Legacy-systemer (gamle systemer)
Med mindre du som selskap har startet opp innenfor de siste 10 årene, vil du mest sannsynlig ha en stor gruppe av eldre IT-systemer, som ikke er utformet for å integrere med andre systemer, men som likevel både utfører kritiske funksjoner for selskapet og fungerer godt, som i utgangspunktet ikke gir noen mening å skifte ut – til tross for at et ofte finnes en nyere modell på markedet.

Det er imidlertid viktig at man forholder seg til hvordan du vil integrere disse systemene til nyere teknologi, som kommer med automasjon- og Internet of Things-bølgen. Her er det de selskapene som klarer å forvalte den beste blandingen av eldre og nye systemer, og få dem til å kommunisere seg i mellom, som vil stå sterkt.

Det handler like mye om å ta et kritisk blikk på den eksisterende IT-infrastrukturen, og vurdere om et system skal skiftes ut før det man har beregnet på forhånd, fordi nye trender og utvikling betyr at det ikke vil være i stand til å fylle rollen.

Det krever et tydelig IT-roadmap å jobbe seg frem mot en utvikling, hvor man hele tiden vil skifte ut og utvikle systemer. Dette er fordi man både vil styre selskapets IT-utvikling i forhold til strategien, men samtidig beholde interaktiviteten, som gjør deg i stand til å teste og utnytte nye teknologiske muligheter for å optimere produksjonen og fortetningene.

5. Utnyttelse av mørke-data
På skyggesiden av Big Data finner du mørke-data eller “Dark data” – data som blir samlet inn, men som  på en eller annen grunn aldri blir brukt til noe. Det kan være fordi arbeidet med å utvikle kunnskap har vært for vanskelig manuelt, eller fordi ingen har sett potensialet i denne dataen ennå.

Her skjuler det seg ofte datasett, som går mange år tilbake, og som ofte inneholder informasjon om unike forhold i selskapet. De som vet hvordan du kan hente kunnskap og bruke den aktivt til å effektivisere organisasjonen – eller finne nye forretningsmodeller eller potensialer – vil ofte kunne oppnå en viktig innsikt og kunnskap, som andre selskaper først må ut å teste fra bunnen av, som hypoteser. Derfor er det et stort potensiale for å kjøre forbi konkurrentene, hvis man klarer å finne verdifull kunnskap.

Utfordringen er å balansere potensialet av data med de ressurser som skal brukes for å finne dataene, opp mot den strategiske retningen som selskapets ledelse har satt. Tilbringer du for mye tid på å grave etter innsikt som ikke eksisterer, går ressursene tapt. Men klarer du å teste en rekke forskjellige hypoteser, og holde øynene åpne for overraskelser, kan det være skjult gull i det sorte datahavet.

De som får utnyttet mørke-data, vil finne en metode hvor de raskt og effektivt kan utprøve en stor mengde hypoteser samtidig – for eksempel ved å oppdage algoritmer, som automatisk kan lokalisere interessant statistikk eller korrelasjoner i dataen.

6. Sikkerhet, sikkerhet, sikkerhet
Sikkerhet er allerede en av de utfordringene som IT-ledere i landets selskaper blir utfordret på, og det med god grunn. I tillegg til risikoen for DdoS-angrep, virus, og tyveri av forretningshemmeligheter og konfidensiell informasjon, har  spesielt ransomware i fjor representert en økende risiko.

Det er likevel er det et punkt som produksjonsbedrifter bør ha et spesielt fokus på. Med integrasjonen av industrielle kontrollsystemer til andre systemer via internett, åpnes det nå helt nye adgangspunkter og innganger, som utenforstående kan angripe. I  motsetning til deres programpakke, som gjennom de siste årene har blitt testet og fått forbedret sikkerheten for uvedkommende, er mange av teknologiene bak de industrielle kontrollsystemene ikke blitt utviklet mot med hensyn til sikkerhet. Ofte er de utviklet på et tidspunkt hvor dette ikke var en primær bekymring, ettersom det ikke var tiltenkt for å ha tilgang til internett.

Derfor har de heller ikke de grunnleggende sikkerhetsinstallasjoner, som utveksling av passord og regler for godkjennelse av brukere. Det gjør at det blir lett for hackere å få tilgang til systemene, og enten ødelegge dem, eller få tilgang til resten av selskapets systemer gjennom dem.