PL

EN

Poszukiwanie efektywnych modeli ontologicznych oraz skutecznych metod i technik uczenia maszynowego w celu inteligentnej eksploracji wiedzy w zbiorach danych typu BIG DATA.

Nr umowy o dofinansowanie:
DWD/7/0421/2023
Nazwa programu:
Doktorat wdrożeniowy VII edycja
Wartość projektu:
316 799,84 zł
Okres realizacji:
01.10.2023 - 31.10.2027
Kierownik projektu:
dr hab. inż. Tomasz Andrysiak, prof. PBŚ
Instytucje zewnętrzne biorące udział w projekcie:

Projekt realizowany we współpracy z SoftBlue S.A.

Cel projektu:

Celem projektu jest poszukiwanie efektywnych modeli ontologicznych oraz skutecznych metod i technik uczenia maszynowego w aspekcie inteligentnej eksploracji wiedzy w zbiorach danych typu Big Data. Dla realizacji tak postawionego celu opracowane zostaną: narzędzia do automatycznej akwizycji danych oraz budowy ontologii dziedzinowych,  rozwiązania oparte o uczenie maszynowe dla odkrywania nietrywialnych zależności w analizowanych zbiorach danych, algorytmy klasyfikacji w aspekcie weryfikacji reguł przynależności danych z wykorzystaniem sieci semantycznych, prototypy systemu w zakresie ewaluacji opracowanego rozwiązania.
 

Opis projektu:

Tematyka projektu dotyczy unikalnego połączenia dynamicznie rosnących potrzeb heterogenicznych środowisk gromadzenia danych z możliwościami wykorzystania metod i technik uczenia maszynowego dla zoptymalizowania działania systemów eksploracji wiedzy. Wiąże się to z poszukiwaniem reguł i zależności w zidentyfikowanych modelach danych i metadanych na podstawie powstałych ontologii oraz wykorzystywanych sieci semantycznych.
W tym aspekcie realizacja projektu wymaga zbudowania specyficznych modeli ontologicznych, inteligentnych algorytmów klasyfikacji danych, jak również automatycznych procesów akwizycji oraz weryfikacji przetwarzanych danych. Spójna i szeroko zaimplementowana automatyzacja wprowadzanych danych minimalizować będzie czynnik "błędu ludzkiego" i pozwoli uzyskać znacząco większą efektywność oraz poprawność działania takiego systemu. Natomiast ciągła detekcja i automatyczna naprawa korelacji danych, pozwoli zoptymalizować procesy zarządzania ich jakością.
Wykorzystanie zaawansowanych algorytmów sztucznej inteligencji może znacząco poprawić efektywność poszukiwania informacji oraz jakość informacyjną otrzymanych zbiorów. Oprócz informacji bezpośrednio gromadzonych w zbiorach danych, dzięki połączeniom ich kontekstów z wykorzystaniem sieci semantycznych, dane pierwotne będą wzbogacone również o nowe informacje pozyskiwane w innych systemach informatycznych, a tym samym możliwe będzie osiągnięcie nowej, znacząco lepszej jakości w wymaganych kontekstach eksploracyjnych.