Digital Twin: ongekende potentie

Tot eind jaren ‘50 werd bij het ontwerp voor alles om ons heen nog pen en papier gebruikt. De complexiteit van gebouwen, werktuigen en elektrotechnische apparatuur was gebonden aan de hoeveelheid papierwerk die nodig was, voordat men door de bomen het bos niet meer kon zien. Het ontwerpproces was veelal iteratief, waarbij keuzes in het design onderbouwd moest worden met een test om de hypothese te checken. Zeker van werktuigen met meer ‘verantwoordelijkheid’, denk aan een vliegtuig, moet de performance uitvoerig getest worden.

In 1957 bracht een Amerikaanse computerwetenschapper ons de eerste versie van de CAD software, computer-aided design. Met de komst van CAD (en CAE, computer-aided engineering) programma’s ging er een wereld open voor alle betrokkenen in het designproces. De tekenprogramma’s maakten het mogelijk om het ontwerp op maat te maken, gebonden aan programmeerbare vectoren en wiskundige modellen in plaats van een geodriehoek. Een reusachtige stap die ruimte gaf aan veel complexere ontwerpen, die sneller ontwikkelt konden worden. Ook werd met het nauwkeurigere voorwerk het productieproces aanzienlijk ingekort, ontwerpfouten werden sneller zichtbaar nog voordat er een fysiek prototype was.

Met de toenemende kracht van de computer, kwamen er ook meer mogelijkheden binnen de CAD software. Tegenwoordig hebben we krachtige designtools tot onze beschikking die tot in het grootste detail complexe designs overzichtelijk in kaart kan brengen. Daarnaast zijn performance testen nu geïntegreerd in het digitale ontwerpproces. Software die bijvoorbeeld gebruikmaakt van FEM (finite element method) kunnen op een numerieke methode de interne spanningen van een onderdeel in het ontwerp in kaart brengen. Dit houdt het iteratieve designproces bijna geheel in de digitale omgeving, wat niet alleen tijd en geld bespaart, het resultaat is ook een volledig onderbouwt model wat ver voor de beschikking over dergelijke tools te veel tijd in beslag had genomen.

Anno 20ste eeuw wordt alles digitaal ontworpen en waar nodig uitvoerig in simulaties getest, van de straalmotor op een Boeing tot de bureaustoel. Dit betekent dat voor al deze fysiek geproduceerde producten er ook een digitale versie bestaat, het digitale model is niet meer weg te denken in de huidige R&D.

Naast de luxe van de genoemde voordelen is het ook een broodnodige ‘must’ geworden om over een virtueel model van je product te beschikken. Tussen de grote partijen in de vliegtuigindustrie bijvoorbeeld. Er heerst een concurrentiedruk waarbij de R&D van een nieuw vliegtuig snel en zonder misstappen moet verlopen. Als een supplier van een bepaald onderdeel niet eerst het virtuele model aan kan leveren om het veelvuldig in een digitale omgeving op performance te testen, loopt bijvoorbeeld een Boeing de kans in het designproces fouten te maken die het zich in tijd en geld niet kan veroorloven. Daarnaast is het simpelweg veel te duur om de performance van een bepaalde onderdelen te testen met een fysiek prototype en is het data gedreven model ook veel accurater in zijn resultaten.

Parallel aan de ontwikkeling van deze software loopt die van de sensortechnologie. Het meten en controleren van de toestand van bepaalde onderdelen wordt steeds nauwkeuriger en goedkoper. Dat brengt op zich zelf natuurlijk dat, om bij het voorbeeld van een vliegtuig te blijven, men steeds nauwkeuriger weet wat er daadwerkelijk niet goed zit, in plaats van een simpel rood knipperend lampje dat aangeeft dat ‘iets niet werkt’. Deze technologie gaat ook een interessante tijd tegemoet. Met de opmars van de fotonica gaat er binnenkort een nieuwe wereld open voor de meetnauwkeurigheid.

Het samenbrengen van de output van de sensors in het fysieke model en een virtueel model geeft in essentie een digital twin. Het is een digitale replica met de realtime toestand inbegrepen zover als het bereik van de sensors dat toelaten, en net zo belangrijk: voor zover de rekenkracht en de software al deze verschillende fysische verschijnselen gecombineerd kan modeleren. Hoe nauwkeuriger en uitgebreider de meetmethode en technologie hoe waardevoller het virtuele model oftewel de digital twin wordt. Voor constructies, voorwerpen of bijvoorbeeld werktuigbouwkundige machines is het van immens belang om materiaal technisch op de hoogte te zijn van de huidige staat, met andere woorden: te weten of alles ‘nog in orde is’. Een scheurtje in een leiding op een olietanker kan vrij desastreuze gevolgen hebben. Met behulp van de digital twin kunnen, afhankelijk van de sensor technologie, dergelijke problemen gesignaleerd worden voordat ze met het blote oog te zien zijn. De grote winst komt echter pas een stap verder.

Stel dat, terug bij het vliegtuig en de straalmotor, alle sensordata uit de motor door de jaren heen bij duizenden motoren is verzameld. Bigdata die in essentie neerkomt op: wat gebeurt er met onderdeel A, als onderdeel B van toestand veranderd. Deze informatie van zoveel motoren over een langere periode vormt een database waaruit, in combinatie met een grote hoeveelheid rekenkracht, zogenaamde correlaties gehaald kunnen worden. Met andere worden, een computer kan de rode lijn trekken en een causaal verband leggen tussen de toestanden van de verschillende onderdelen.

Terugkomend op het rode lampje in de cockpit dat de algemene opmerking aangeeft van ‘de motor die oververhit is’; met de bovengenoemde functie van de digital twin kun je precies vertellen welke onderdelen zorgen voor de huidige toestand. Nog beter, de technologie en de bigdata maakt het mogelijk dit bij wijze van spreken twee weken van te voren al te voorspellen. De rode (causale) lijn kan op deze manier doorgetrokken blijven worden, zolang er maar voldoende data en rekenkracht is.

Los van dat het voorspellen van onderhoudsmomenten veel geld kan besparen en levens kan redden, geeft het ook direct feedback op de performance van het product. In theorie zal die feedback de producent vertellen wat er aan het huidige ontwerp moet veranderen om het te verbeteren; Het iteratieve R&D proces wordt overgenomen door de digital twin. Het proces wordt effectiever en doeltreffender met meer data. Een goede implementatie in het Internet of Things, dat staat voor de inter-connectiviteit van alles om ons heen, geeft de mogelijkheid die data op te schalen. Bij ‘voldoende’ data en referenties kan er in theorie een database opgebouwd worden met fundamentele bevindingen, een soort ‘Engineers Bible’.

Al met al doet de term ‘Digital Twin’ zwaar tekort aan de ongekende potentie van het hierboven beschreven concept. Het is iets wat we nog niet helemaal kunnen bevatten. De hier parallel aan lopende ontwikkeling van Artificial Intelligence, die de potentie onbetwist zal verveelvoudigen, maakt het verhaal nog ongeloofwaardiger. Maar hou je vast, dit is de nabije toekomst.

%d bloggers liken dit: