Directii de cercetare

Programare paralelă fundamentală

Pentru asigurarea productivităţii şi a fiabilităţii în dezvoltarea aplicaţiilor paralele se impune folosirea unor modele cu nivel de abstractizare înalt, care să asigure o dezvoltare simplă şi corectă prin construcţie a programelor paralele. Se are în vedere realizarea unor framework-uri specifice care să deservească realizării unor implementări eficiente şi robuste ale unor modele rezultate din analiza unor domenii aplicative specifice. Mergând mai departe se va studia definirea şi realizarea unor limbaje specifice (Domain Specific Languages) pentru domeniile evidenţiate.

Optimizarea modelelor

Atât modelele matematice, dar mai ales modelele numerice şi algoritmii de calcul paralel şi distribuit necesită optimizare pentru minimizarea resurselor folosite şi diminuarea timpului de execuţie.

Simulare şi Vizualizare

Simularea proceselor şi fenomenelor necesită rezolvarea unor calcule matematice complexe, ale căror durată se poate măsura uneori în zile. Unele simulări şi mai ales vizualizarea rezultatelor, implică şi ele calcule algebrice masive care pot fi accelerate semnificativ rulându-le pe platforme GPU. Simularea fenomenelor naturale poate impune şi folosirea unor tehnici de realitate virtuala, direcţie de cercetare pe care grupul o prevede, de asemenea.

Procesare de imagini şi realitate virtuala

Simulările performante impun vizualizări cu grad ridicat de acurateţe care presupun procesări de imagine şi de semnal (multimedia streaming, multimedia processing). Preluarea inputurilor în timp real necesită un control eficient al traficului în reţelele implicate (network traffic control).

Big Data Analytics

Se urmăreşte folosirea tehnicilor de tip data mining, tehnici din domeniul inteligenţei artificiale, tehnici de regăsire şi clasificare a informaţiei. Toate acestea se impun a fi îmbinate cu tehnici de procesare paralelă pentru stăpânirea complexităţii şi obţinerea unui grad ridicat de performanţă.

Pe aceste direcţii evidenţiem următoarele teme cercetare considerate:

  • modelarea volumelor mari de date necesită abordări statistice, dar şi abordări ce privesc stocarea, accesarea şi căutare rapidă a datelor. Acestea impun modele speciale de organizare a datelor stocate, algoritmi de căutare rapidă, tehnici de analiza științifică a datelor şi data mining.
  • problema determinării, procesării şi reprezentării cunoştinţelor din reţele de mare întindere; acestea necesită capacităţi computaţionale apreciabile precum şi algoritmi eficienţi, de înaltă performanţă.
  • paralelizarea algoritmilor deja existenţi, respectiv găsirea unor algoritmi noi pentru eficientizarea căutării şi extragerii automate a cunoştinţelor Aceştia sunt impuşi de volumul extrem de mare de cunoştinţe stocat într-un set oarecare de date şi complexităţii structurii acestor cunoştinţe.
  • îmbunătăţirea metodelor existente de reprezentare a cunoştinţelor care să devină un suport pentru achiziționarea de noi cunoştinţe, de luare a deciziilor sau de raţionament în cazul unui utilizator uman. În cazul seturilor foarte mari de date, conexiunile care se pot stabili intre cunoştinţe este de asemenea foarte mare.