Guy Kindermans Guy Kindermans is freelance journalist bij Data News.

Computers bieden steeds meer mogelijkheden om informatie, zeg maar kennis, te creëren dankzij krachtige simulatie- en visualiseringsapplicaties, met dank aan onder meer 3D-software en heterogene computersystemen.

Ontwerpen creëren op een computer zag ooit het daglicht met 2D ‘computer aided design’, als een vervanging van de vlakke technische tekeningen en blauwdrukken. Dankzij de groeiende kracht van computers in de voorbije jaren, vindt nu ook 3D-software meer ingang, ook op persoonlijke werkschermen. Naast het ontwerpen van 3D-elementen en volumes, kan in de software ook worden bestudeerd hoe de voorziene materialen in die elementen voor sterkten of zwakheden zorgen, en hoe al die onderdelen interageren in het kader van een totaalontwerp. Dat is het domein van modellering en simulatiesoftware. Naast het ontwerpen en simuleren van het mechanische ontwerp, omvat dat ook mogelijkheden om thermische, elektromagnetische en andere kenmerken van het ontwerp te bestuderen.

De resultaten van dat rekenwerk worden vervolgens met visualiseringssoft letterlijk in beeld gebracht, niet zelden met een hoge graad van fotorealisme. Dat laatste biedt opportuniteiten in de audiovisuele wereld (onder meer voor opleidingsmateriaal), maar ook voor het visualiseren van grote en complexe datastromen en data-sets. Hierbij wordt zowel op ontwerpers, als wetenschappers, statistici, marketeers, financiële experten, specialisten in nutsbedrijven en dies meer gemikt.

Andere software biedt bijkomende mogelijkheden om de ontwerpresultaten te analyseren, en vervolgens rechtstreeks als input voor de productiesystemen (zoals numeriek gestuurde machines) en productieomgevingen. Dat laatste omvat tevens een simulatie en optimalisatie van de productie-installatie en de werking ervan, de planning, onderhoudsschema’s, hulp bij het oplossen van problemen (herstellingen), opleidingen en dies meer.

Door de verregaande virtualisatie van de ontwerpfasen en de planning van de productie, kunnen meer en betere producten sneller, efficiënter en tegen lagere kostprijs naar de markt worden gebracht. Anderzijds wordt ook tot voorzichtigheid aangemaand. De kwaliteit van de output blijft beperkt door de kwaliteit en de relevantie van de gehanteerde modellen. Bovendien moet men binnen het werkingsgebied van het model blijven (en al extra aandacht besteden aan resultaten die tegen de grenzen van het model liggen).

Ondertussen zijn er sectoren waar 3D-software zo goed als absoluut onmisbaar is. De autosector, maar ook en meer nog de lucht- en ruimtevaartsector zijn hiervan voorbeelden. De Boeing 777 claimt de titel van eerste geheel digitaal ontworpen commercieel vliegtuig te zijn, maar ook de Airbus A380 superjumbo en Boeing’s nieuwste 787 ‘Dreamliner’ zijn voorbeelden van nauw vervlochten 3D-ontwerp- en -productieprocessen. Maar ook in sectoren als ‘life sciences’ (en in het bijzonder in de farmaceutische sector) zijn 3D-pakketten cruciaal.

Heterogene computers

Hoe verfijnder en meer gedetailleerd de modellen, hoe groter het benodigde rekenvermogen, en vooralsnog zal in de komende jaren de honger naar meer vermogen niet afnemen. In toenemende mate zal hiervoor een beroep worden gedaan op heterogene computersystemen, waar ‘gewone’ multi-core cpu’s en grafische processoren gezamenlijk worden aangewend, omdat een dergelijke combinatie voor de nodige ‘schaalbaarheid’ zorgt. Op het supercomputing-event in Hamburg, eerder dit jaar, bespraken bedrijven als AMD, Intel, Fujitsu, IBM en Cray hoe ze dergelijke heterogene systemen plannen.

Dat kan zowel door het mengen van beide types processor in een zelfde systeem (of cluster van systemen), maar ook door het mengen van dergelijke kernen in een zelfde processor. Ook het aantal verwerkingskernen per processor zal in de komende jaren nog snel stijgen. Kortom, in de komende jaren zullen ‘parallelle’ systemen met tientallen en meer kernen sche-ring en inslag worden voor zelfs de meest elementaire ontwerp- en simulatiesystemen. Bovendien – als nodig – nog uitgebreid met gespecialiseerde elementen zoals digitale signaalprocessoren en programmeerbare processoren (zoals fpga’s).

In de komende jaren zal het eveneens een continue strijd blijven om dat rauwe verwerkingsvermogen ook zinvol en efficiënt toe te passen. Al sinds jaar en dag wordt gewerkt aan een oplossing voor het makkelijk(er) programmeren van parallelle systemen, en dat lijkt nog steeds een levensgrote uitdaging.

In de voorbije jaren werden wel parallellizerende bibliotheken geschreven (zoals Intels Parallel Studio), met claims dat technisch/wetenschappelijke software op een paar dagen kan worden omgezet naar massief parallelle omgevingen. Intel claimt voorts dat zijn nieuwe MIC-architectuur (Many Integrated Core) een x86-programmeermodel biedt. En voor omgevingen waar gpu’s worden aangewend voor streaming processing en intensief rekenwerk, bestaan omgevingen als CUDA (Compute Unified Device Architecture, een uitbreiding van C voor Nvidia-processoren) en OpenCL (Open Computing Language, specifiek voor hererogene omgevingen, met ondersteuning van Intel, AMD, Nvidia en ARM).

Het angeltje is evenwel dat met dergelijke tools allicht programmeurs makkelijker aan de slag kunnen, maar niet noodzakelijkerwijze de mogelijkheden van de verschillende processorarchitecturen ten volle worden aangewend. Zo zijn grafische processoren sterk vectorgericht, en dat aspect maakte onder meer software op de eerste generaties supercomputer van onder meer Cray behoorlijk lastig. Het is dan ook de vraag hoe snel de softwarewereld er zal in slagen een optimale oplossing te bieden voor het creëren van software voor de nieuwe krachtige machines.

Guy Kindermans

Ondertussen zijn er sectoren waar 3D-software zo goed als absoluut onmisbaar is.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content