Projekt NCN nr 06788

Logo PP IAII NCN

KeysNajważniejsze cele

Z perspektywy badań podstawowych głównym celem projektu będzie zbudowanie pierwszego teorioinformacyjnego środowiska (warsztatu naukowego) modelowania wnioskowania abdukcyjnego, składającego się z: 

  • pierwszego tensorowego modelu reprezentacji danych o relacjach między obiektami ze świata rzeczywistego widzianych jako ważony graf skierowany, bazującego bezpośrednio na zbiorze sylogizmów abdukcyjnych (gr. epagoge) zgodnie z ujęciem zaproponowanym przez E. Jaynesa,
  • pierwszego ugruntowanego teorioinformacyjnie modelu procesu wnioskowania abdukcyjnego, 
  • pierwszej ilościowej definicji "wiarygodności" (ang. plausibility) wnioskowania opartej na miarach teorioinformacyjnych oraz zasadzie maksymalizacji entropii (MaxEnt) (poszerzającej dotychczasowe ujęcie bazujące na logice i teorii prawdopodobieństwa).

Epistemologiczny charakter projektu

Założenia wstępne projektu inspirowane są prawem Landauera i pracami Feynmana, zakładającymi, że nie istnieje informacja bez jej fizycznej reprezentacji, a każdy użyteczny proces przetwarzania danych powinien być postrzegany jako nieodwracalny proces fizyczny (zużywający energię). Jednocześnie, za Jaynesem przyjęte zostało założenie tożsamości entropii w termodynamice oraz entropii w teorii informacji. 

Głównym celem badawczym będzie uzyskanie wiarygodnej odpowiedzi na pytanie "w jaki sposób miary teorioinformacyjne mogą zostać wykorzystane do wyjaśnienia i poprawy użyteczności procesu przetwarzania danych?".

Problem badany w projekcie ma więc charakter epistemologiczny - celem jest zrozumienie podstawowych zasad rządzących modelowaniem wiedzy. Wstępne wyniki naszych badań wskazują, że pomimo faktu, że nie da się bezpośrednio zamodelować zużywania i wydzielania energii w procesie wnioskowania, to taki 'energocentryczny' model skutecznie wyjaśnia wiele zjawisk zachodzących podczas przetwarzania danych.

 

Metodyka badań

Projekt stawia sobie za cel wyjaśnienie "prawdziwej natury", przydatnego w praktyce oraz weryfikowalnego eksperymentalnie, przetwarzania rzeczywistych danych. Założenia metodyki badań są następujące:

  • wprowadzenie jedynie takich artefaktów (pojęć) do modelu wnioskowania abdukcyjnego, które bezpośrednio wynikają z (uzasadnionego sylogizmami apagoge) modelu reprezentacji danych (np. prawdopodobieństwo warunkowe) albo są pojęciami uzasadnionymi fizycznie (np. entropia, czy zasada MaxEnt),
  • użycie 'holistycznego' przetwarzania danych (tj. podejścia "przetwarzania całego zbioru danych"), w celu uniknięcia arbitralnych założeń co do zakresu realizacji rozumowania,
  • wykorzystanie najnowszych wyników badań z dziedziny Information Retrieval (IR) dotyczących modelowania powiązań między obiektami, wskazujących (wg V. Lavrenki), że w systemach IR występuje problem arbitralnego wyboru reprezentacji relacji między użytkownikami a systemem; proponowany przez nas model umożliwi modelowanie na bazie dostępnej wiedzy behawioralnej bez konieczności wprowadzenia arbitralnych powiązań,
  • unikanie przyjmowania arbitralnych rozkładów prawdopodobieństwa poprzez stosowanie zasady MaxEnt,
  • modelowanie wiarygodności abdukcyjnego wnioskowania zgodnie z koncepcją tzw. semantyki "światów możliwych", umożliwiające analizę równoległych zmian entropii w każdej z "możliwych interpretacji świata" (uzyskanych po zastosowaniu sylogizmów wnioskowania abdukcyjnego).

Opracowane definicje miar, modele danych i procesów jak również ich implementacja oraz metodyka badań eksperymentalnych stanowić będą unikalny warsztat naukowy wypracowany w wyniku realizacji projektu.

 

Wyniki badań teoretycznych

Wielowymiarowy model przestrzeni Hilberta - jako model mający interpretację probabilistyczną w kwantowym IR - zostanie użyty jako podstawa dla abdukcyjnie zorientowanego tensorowego modelu reprezentacji danych heterogenicznych. Jak pokazali posługujący się nim naukowcy badający problem dopasowywania ontologii, model ten jest obecnie najbardziej uniwersalnym modelem reprezentacji danych. Umożliwia on efektywne przechowywanie informacji o różnej strukturze (np. grafy, dokumenty tekstowe itp.), uzyskanych z różnych źródeł (np. danych kolaboratywnych, modeli semantycznych, itp.).

Stosując generatywne podejście do modelowania relewancji możliwe będzie wykazanie immanentnych ograniczeń wiodących modeli IR, w szczególności tych implikowanych przez brak teoretycznie ugruntowanych modeli reprezentacji "powiązań" pomiędzy wymiarami reprezentującymi dane behawioralne i niebehawioralne. Model abdukcyjnego procesu wnioskowania będzie jednym z pierwszych tej klasy modeli (jeśli nie pierwszym) wywodzącym się bezpośrednio z podstawowych definicji prawdopodobieństwa (w tym prawdopodobieństwa kwantowego) i sylogizmów wiarygodnego wnioskowania, w sposób określony przez E. Jaynesa.

Z perspektywy tych sylogizmów analizie poddane zostaną wiodące macierzowe/tensorowe metody przetwarzania danych i pokazana zostanie wyższość tzw. reflektywnego przetwarzania danych (w literaturze do tej pory reprezentowanego przez Reflective Random Indexing) nad redukcją wymiarowości (opartą na rozkładzie według wartości osobliwych/własnych).

Abdukcyjna miara wiarygodności wnioskowania oparta zostanie na unikalnym, uogólnionym ujęciu entropii połączonym ze sformułowanym przez von Neumanna probabilistycznym modelem przejść stanu kwantowego. W tym celu kontynuowane będą wcześniejsze (dotąd nieopublikowane) badania wykazujące (przynajmniej wobec rekomendacji kontekstowej oraz problemu uzgadniania ontologii), że uzasadnione jest wykorzystanie zasady maksymalizacji entropii jako "warstwy sterującej" procesem wnioskowania abdukcyjnego opartego na tensorowej reprezentacji danych. Tak określona miara będzie bezpośrednio stosowalna wobec najnowszych metod przetwarzania danych opartych na tensorowej reprezentacji semantycznej grafów. Dokonane będzie ilościowe sformułowanie wiarygodności sylogizmów wnioskowania, jak dotąd rozpatrywanej tylko jakościowo.

 

Wyniki badań eksperymentalnych

Wstępne rezultaty wskazują zarówno analitycznie jak i doświadczalnie, że korzystanie z teorioinformacyjnej miary wiarygodności wnioskowania rozwiązuje znany problem przetrenowania danych (ang. overfitting) - m.in. problem optymalnej redukcji wymiarowości.


Eksperymentalne sprawdzenie efektywności proponowanych rozwiązań planowane jest w ramach trzech scenariuszy rekomendacji kontekstowej:

  • spersonalizowana rekomendacja kontekstowa,
  • uzgadnianie ontologii (konkurs OAEI),
  • uzgadnianie semantycznych usług sieciowych (konkurs S3).

Przeprowadzona zostanie krytyczna, ugruntowana teorioinformacyjnie analiza miar używanych w systemach abdukcyjnego przetwarzania danych.

 

Spodziewany wpływ na naukę, społeczeństwo i gospodarkę

Wg Peirce'a abdukcja jest jedyną droga do zdobycia nowej wiedzy. Z kolei Jaynes uważał, że zadawalające zdefiniowanie (przypisanej abdukcji przez Peirce'a) miary wiarygodności wnioskowania jest odwiecznym problemem nauki. Projekt stawia ambitny cel określenia pierwszej teorioinformacyjnej i stosowalnej praktycznie definicji tej miary.

Wyniki projektu mogą stać się inspiracją dla prac specjalistów wielu dziedzin, m.in.: kognitywistów, językoznawców, metodyków, logików. Jednym z celów projektu jest zaproponowanie metod, które umożliwią wyeliminowanie heurystycznych metod stosowanych dotychczas w systemach IR. Nowy, ugruntowany teorioinformacyjnie model umożliwi automatyczną konfigurację parametrów wielu metod istotnie przyspieszając badania w dziedzinie wyszukiwania informacji. 

Wynik projektu zwiększy skuteczność internetowych systemów rekomendacyjnych, zmniejszając liczbę interakcji niezbędnych do spełnienia potrzeb użytkownika, czyniąc je bardziej przyjaznymi (szczególnie dla osób starszych i niepełnosprawnych, zmniejszając w ten sposób ryzyko ich cyfrowego wykluczenia). Ponadto, większa efektywność systemów rekomendacyjnych będzie miała pozytywny wpływ na rozwój rynku usług internetowych.